博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
kafka快速入门
阅读量:6912 次
发布时间:2019-06-27

本文共 6287 字,大约阅读时间需要 20 分钟。

kafka 下载

wget http://mirrors.shu.edu.cn/apache/kafka/2.0.0/kafka_2.11-2.0.0.tgz

官网 http://kafka.apache.org/quickstart

快速开始

本教程假设您刚刚开始,并且没有现有的Kafka或ZooKeeper数据。由于Kafka控制台脚本对于基于Unix和Windows的平台是不同的,因此在Windows平台上使用bin\windows\而不是bin/将脚本扩展名更改为.bat

 2.0.0版本并解压缩它。
1
2
>
tar
-xzf kafka_2.11-2.0.0.tgz
>
cd
kafka_2.11-2.0.0

Kafka使用因此如果您还没有ZooKeeper服务器,则需要先启动它。您可以使用与kafka一起打包的便捷脚本来获取快速且脏的单节点ZooKeeper实例。

1
2
3
> bin
/zookeeper-server-start
.sh config
/zookeeper
.properties
[2013-04-22 15:01:37,495] INFO Reading configuration from: config
/zookeeper
.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
...

现在启动Kafka服务器:

1
2
3
4
> bin
/kafka-server-start
.sh config
/server
.properties
[2013-04-22 15:01:47,028] INFO Verifying properties (kafka.utils.VerifiableProperties)
[2013-04-22 15:01:47,051] INFO Property socket.send.buffer.bytes is overridden to 1048576 (kafka.utils.VerifiableProperties)
...

让我们创建一个名为“test”的主题,它只包含一个分区,只有一个副本:

1
> bin
/kafka-topics
.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic
test

如果我们运行list topic命令,我们现在可以看到该主题:

1
2
> bin
/kafka-topics
.sh --list --zookeeper localhost:2181
test

或者,您也可以将代理配置为在发布不存在的主题时自动创建主题,而不是手动创建主题。

Kafka附带一个命令行客户端,它将从文件或标准输入中获取输入,并将其作为消息发送到Kafka集群。默认情况下,每行将作为单独的消息发送。

运行生产者,然后在控制台中键入一些消息以发送到服务器。

1
2
3
> bin
/kafka-console-producer
.sh --broker-list localhost:9092 --topic
test
This is a message
This is another message

Kafka还有一个命令行使用者,它会将消息转储到标准输出。

1
2
3
> bin
/kafka-console-consumer
.sh --bootstrap-server localhost:9092 --topic
test
--from-beginning
This is a message
This is another message

如果您在不同的终端中运行上述每个命令,那么您现在应该能够在生产者终端中键入消息并看到它们出现在消费者终端中。

所有命令行工具都有其他选项; 运行不带参数的命令将显示更详细地记录它们的使用信息。

到目前为止,我们一直在与一个经纪人竞争,但这并不好玩。对于Kafka,单个代理只是一个大小为1的集群,因此除了启动更多代理实例之外没有太多变化。但是为了感受它,让我们将我们的集群扩展到三个节点(仍然在我们的本地机器上)。

首先,我们为每个代理程序创建一个配置文件(在Windows上使用copy命令代替):

1
2
>
cp
config
/server
.properties config
/server-1
.properties
>
cp
config
/server
.properties config
/server-2
.properties

现在编辑这些新文件并设置以下属性:

1
2
3
4
6
7
8
9
config/server-1.properties:
    
broker.id=1
    
listeners=PLAINTEXT://:9093
    
log.dirs=/tmp/kafka-logs-1
 
config/server-2.properties:
    
broker.id=2
    
listeners=PLAINTEXT://:9094
    
log.dirs=/tmp/kafka-logs-2

broker.id属性是群集中每个节点的唯一且永久的名称。我们必须覆盖端口和日志目录,因为我们在同一台机器上运行这些,并且我们希望让所有代理尝试在同一端口上注册或覆盖彼此的数据。

我们已经启动了Zookeeper并启动了我们的单个节点,因此我们只需要启动两个新节点:

1
2
3
4
> bin
/kafka-server-start
.sh config
/server-1
.properties &
...
> bin
/kafka-server-start
.sh config
/server-2
.properties &
...

现在创建一个复制因子为3的新主题:

1
> bin
/kafka-topics
.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic

好的,但现在我们有一个集群,我们怎么知道哪个经纪人正在做什么?要查看运行“describe topics”命令:

1
2
3
> bin
/kafka-topics
.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:
    
Topic: my-replicated-topic  Partition: 0    Leader: 1   Replicas: 1,2,0 Isr: 1,2,0

这是输出的解释。第一行给出了所有分区的摘要,每个附加行提供有关一个分区的信息。由于我们只有一个分区用于此主题,因此只有一行。

  • “leader”是负责给定分区的所有读取和写入的节点。每个节点将成为随机选择的分区部分的领导者。
  • “replicas”是复制此分区日志的节点列表,无论它们是否为领导者,或者即使它们当前处于活动状态。
  • “isr”是“同步”复制品的集合。这是副本列表的子集,该列表当前处于活跃状态并且已经被领导者捕获。

请注意,在我的示例中,节点1是该主题的唯一分区的领导者。

我们可以在我们创建的原始主题上运行相同的命令,以查看它的位置:

1
2
3
> bin
/kafka-topics
.sh --describe --zookeeper localhost:2181 --topic
test
Topic:
test 
PartitionCount:1    ReplicationFactor:1 Configs:
    
Topic:
test
Partition: 0    Leader: 0   Replicas: 0 Isr: 0

所以毫无疑问 - 原始主题没有副本,位于服务器0上,是我们创建它时群集中唯一的服务器。

让我们向我们的新主题发布一些消息:

1
2
3
4
> bin
/kafka-console-producer
.sh --broker-list localhost:9092 --topic my-replicated-topic
...
my
test
message 1
my
test
message 2
^C

现在让我们使用这些消息:

1
2
3
4
> bin
/kafka-console-consumer
.sh --bootstrap-server localhost:9092 --from-beginning --topic my-replicated-topic
...
my
test
message 1
my
test
message 2
^C

现在让我们测试一下容错性。经纪人1充当领导者所以让我们杀了它:

1
2
3
>
ps
aux |
grep
server-1.properties
7564 ttys002    0:15.91
/System/Library/Frameworks/JavaVM
.framework
/Versions/1
.8
/Home/bin/java
...
>
kill
-9 7564
在Windows上使用:
1
2
3
4
> wmic process where
"caption = 'java.exe' and commandline like '%server-1.properties%'"
get processid
ProcessId
6016
> taskkill
/pid
6016
/f

领导已切换到其中一个从属节点,节点1不再位于同步副本集中:

1
2
3
> bin
/kafka-topics
.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:
    
Topic: my-replicated-topic  Partition: 0    Leader: 2   Replicas: 1,2,0 Isr: 2,0

但即使最初接受写入的领导者已经失败,这些消息仍可供消费:

1
2
3
4
> bin
/kafka-console-consumer
.sh --bootstrap-server localhost:9092 --from-beginning --topic my-replicated-topic
...
my
test
message 1
my
test
message 2
^C

从控制台写入数据并将其写回控制台是一个方便的起点,但您可能希望使用其他来源的数据或将数据从Kafka导出到其他系统。对于许多系统,您可以使用Kafka Connect导入或导出数据,而不是编写自定义集成代码。

Kafka Connect是Kafka附带的工具,用于向Kafka导入和导出数据。它是一个可扩展的工具,运行 连接器,实现与外部系统交互的自定义​​逻辑。在本快速入门中,我们将了解如何使用简单的连接器运行Kafka Connect,这些连接器将数据从文件导入Kafka主题并将数据从Kafka主题导出到文件。

首先,我们将首先创建一些种子数据进行测试:

1
>
echo
-e
"foo\nbar"
>
test
.txt
或者在Windows上:
1
2
>
echo
foo>
test
.txt
>
echo
bar>>
test
.txt

接下来,我们将启动两个以独立模式运行的连接器,这意味着它们在单个本地专用进程中运行。我们提供三个配置文件作为参数。第一个始终是Kafka Connect流程的配置,包含常见配置,例如要连接的Kafka代理和数据的序列化格式。其余配置文件均指定要创建的连接器。这些文件包括唯一的连接器名称,要实例化的连接器类以及连接器所需的任何其他配置。

1
> bin
/connect-standalone
.sh config
/connect-standalone
.properties config
/connect-file-source
.properties config
/connect-file-sink
.properties

Kafka附带的这些示例配置文件使用您之前启动的默认本地群集配置并创建两个连接器:第一个是源连接器,它从输入文件读取行并生成每个Kafka主题,第二个是宿连接器从Kafka主题读取消息并将每个消息生成为输出文件中的一行。

在启动过程中,您将看到许多日志消息,包括一些指示正在实例化连接器的日志消息。一旦Kafka Connect进程启动,源连接器应该开始从test.txt主题读取行并生成它们connect-test,并且接收器连接器应该开始从主题读取消息connect-test 并将它们写入文件test.sink.txt。我们可以通过检查输出文件的内容来验证数据是否已通过整个管道传递:

1
2
3
>
more
test
.sink.txt
foo
bar

请注意,数据存储在Kafka主题中connect-test,因此我们还可以运行控制台使用者来查看主题中的数据(或使用自定义使用者代码来处理它):

1
2
3
4
> bin
/kafka-console-consumer
.sh --bootstrap-server localhost:9092 --topic connect-
test
--from-beginning
{
"schema"
:{
"type"
:
"string"
,
"optional"
:
false
},
"payload"
:
"foo"
}
{
"schema"
:{
"type"
:
"string"
,
"optional"
:
false
},
"payload"
:
"bar"
}
...

连接器继续处理数据,因此我们可以将数据添加到文件中并看到它在管道中移动:

1
>
echo
Another line>>
test
.txt

您应该看到该行出现在控制台使用者输出和接收器文件中。

Kafka Streams是一个客户端库,用于构建任务关键型实时应用程序和微服务,其中输入和/或输出数据存储在Kafka集群中。Kafka Streams结合了在客户端编写和部署标准Java和Scala应用程序的简单性以及Kafka服务器端集群技术的优势,使这些应用程序具有高度可扩展性,弹性,容错性,分布式等等。本将演示如何运行在此库中编码的流应用程序。

转载于:https://www.cnblogs.com/syscn/p/9805027.html

你可能感兴趣的文章
汉编随想(一)
查看>>
开源的Android开发框架-------PowerFramework使用心得(五)网络请求HTTPRequest
查看>>
[转载]kmeans
查看>>
一个不错的架构图:基于SpringCloud的微服务项目
查看>>
成为顶尖自由职业者必备的7个软技能之一:沟通(转)
查看>>
获取合并单元格中值的一个方法POI
查看>>
ORACLE Install (10g r2) FOR Red Hat Enterprise Linux Server release 5.5 (64 bit) (转)
查看>>
入手Invicta 8926 OB潜水自动机械腕表
查看>>
Android UI适配总结(一)寻找最佳匹配资源
查看>>
我是小白之<%%>用法
查看>>
F# 入门(十一):链表与数组
查看>>
树套树
查看>>
[IOS笔记] - 关于线程[3]
查看>>
java socket通信-传输文件图片--传输图片
查看>>
Windows 10 远程连接出现函数错误 【这可能由于CredSSP加密Oracle修正】
查看>>
MySQL read_only选项的作用
查看>>
职业方向
查看>>
3DMAX 卸载工具,完美彻底卸载清除干净3dmax各种残留注册表和文件
查看>>
生日蜡烛
查看>>
移山小分队---每日记录01
查看>>