Java 21新特性

在最新的 Java 21 版本中, Oracle 开发团队为其带来了 15 大功能更新,详细如下:

  • 字符串模板(预览阶段)

    该功能通过将文字文本与嵌入式表达式和处理器相结合来产生专门的结果,从而补充了 Java 现有的字符串文字和文本块。该语言功能和 API 的目的是通过轻松表达包含运行时计算值的字符串来简化 Java 程序的编写。它有望增强表达式的可读性,提高程序的安全性,保持灵活性,并简化接受用非 Java 语言编写的字符串的 API 的使用。

  • 序列集合

    有序集合提案引入了一些接口,用于表示具有已定义遇到顺序的集合。每个集合都有明确定义的第一个和第二个元素,以此类推,直到最后一个元素。提供了一致的 API,用于接受第一个和最后一个元素以及以相反顺序处理元素。该提案的提出的原因是,Java 的集合框架缺乏一种表示具有定义的遇到顺序的元素序列的集合类型。它还缺乏适用于这些集合的一致的操作集。该提案要求定义顺序集合、集合和映射的接口,并将这些接口适应到现有的集合类型层次结构中。所有这些新方法都具有默认实现。

  • 加入 Generational ZGC

    分代 ZGC 的目的是通过扩展 ZGC,维护新旧对象的不同代,从而提高应用程序的性能。年轻的对象往往很早就会死亡;保持独立的世代将允许 ZGC 更频繁地收集年轻对象。使用分代 ZGC 运行的应用程序应能获得以下优势:降低分配停滞的风险、降低堆内存开销和降低垃圾回收 CPU 开销。与非分代 ZGC 相比,这些优势应该可以实现,而不会显著降低吞吐量。

  • 记录模式

    该功能在 JDK 19 和 JDK 20 中都是预览版,主要用于解构记录值。记录模式和类型模式可以嵌套,以实现强大、声明性和可组合的数据导航和处理形式。该提案的目标包括将模式匹配扩展到重组记录类实例,并添加嵌套模式,从而实现更多可组合的数据查询。当前 JEP(JDK 增强提案)中的记录模式提案将最终确定该功能,并根据不断积累的经验和反馈意见进一步完善。

  • switch 模式匹配

    该功能允许 switch 表达式或语句可以根据多个模式(每个模式都有特定的操作)进行测试,从而可以安全、简洁地表达面向数据的复杂查询。该功能最初在 JDK 17 中提出,随后在 JDK 18、JDK 19 和 JDK 20 中得到改进。它将在 JDK 21 中最终完成,并根据反馈和经验进一步完善。与以前的 JEP 相比,主要的变化是删除了括号模式,并允许使用限定的枚举常量(如带有 switch 表达式和语句的 case 常量)。

  • 外部函数与内存 API(第三次预览)

    允许 Java 程序与 Java 运行时之外的代码和数据进行互操作。通过有效地调用外部函数和安全访问外部内存,该 API 使 Java 程序能够调用本地库并处理本机数据,而不会出现 JNI(Java Native Interface)的脆弱性和危险性。该 API 先前在 JDK 20 和 JDK 19 中进行了预览。JDK 21 预览中的改进包括增强的布局路径,增加了一个用于取消引用地址布局的新元素,以及集中管理 Arena 接口中本地段的生命周期;实现了一个后备本地链接器;删除了 VaList。

  • 未命名模式和变量(预览版)

    未命名模式匹配记录组件,但不说明组件名称或类型,而未命名变量可以初始化但不能使用。两者都用下划线字符 _ 表示。该提案旨在通过省略不必要的嵌套模式来提高记录模式的可读性,并通过识别必须声明但不会使用的变量来提高所有代码的可维护性。

  • 虚拟线程

    虚拟线程是一种轻量级线程,有望大幅减少编写、维护和观察高吞吐量并发应用程序的工作量。在 JDK 21 中,虚拟线程将始终支持线程本地变量,并使创建不具备这些变量的虚拟线程成为不可能。对线程本地变量的有保证的支持确保更多的现有库可以不改变地与虚拟线程一起使用,并帮助迁移任务导向的代码以使用虚拟线程。

  • 未命名类和实例主要方法(处于预览阶段)

    该功能的作用是为了让学生能够更容易地编写出第一个 Java 程序,而无需了解为大型程序设计的语言功能。学生无需使用单独的 Java 方言,就能编写单类程序的精简声明,然后随着技能的提高,无缝扩展程序,使用更高级的功能。该提案不仅为学生提供了通往 Java 的平坦道路,还减少了编写脚本和命令行实用程序等简单 Java 程序的繁琐过程。

  • 作用域值(处于预览阶段)

    作用域值(Scoped values)是指允许在线程内和线程间共享不可变数据。作用域值允许在大型程序的组件之间安全地共享数据,而无需使用方法参数。这一提议在 JDK 20 中得到了验证。该计划的目标包括易用性、可理解性、健壮性和性能。

  • 矢量 API(第六个孵化器)

    该 API 表达的矢量计算可在支持的 CPU 架构上可靠地编译为最佳矢量指令,从而实现优于同等标量计算的性能。此前,矢量 API 已在 JDK 16 至 JDK 20 中孵化。最新版本包括性能增强和错误修复。该提案的目标包括:简洁明了、与平台无关、在 x64 和 AArch64 体系结构上提供可靠的运行时编译和性能。

  • 弃用 Windows 32 位 x86 端口

    这个功能更新的目的是在未来的版本中删除该端口。该提案旨在更新构建系统,以便在尝试为 32 位 x86 Windows 配置构建时,发出错误消息。该提案指出,支持 32 位操作的最后一个 Windows 操作系统版本之 Windows 10 将于 2025 年 10 月终止生命周期。

  • 禁止代理的动态加载

    当代理被动态加载到运行中的 JVM 时发出警告。发出这些警告的目的是为将来发布默认禁止加载代理的版本做准备,以改善默认情况下的完整性。该提案的其他目标包括重新评估服务性(涉及对运行中代码的临时更改)和完整性(假定运行中的代码不会被随意更改)之间的平衡,并确保大多数不需要动态加载代理的工具不受影响。从 JDK 21 开始,计划要求应用程序所有者批准动态加载代理,就像启动时加载代理一样。这个改变将使 Java 平台更接近默认情况下的完整性。

  • 密钥封装机制的 API

    这一种通过公开密码学保护对称密钥的加密技术。该提案的一个目标是使应用程序能够使用 KEM 算法,如 RSA 密钥封装机制(RSA-KEM)、椭圆曲线集成加密方案(ECIES)和美国国家标准与技术研究院(NIST)后量子密码标准化过程的候选算法。另一个目标是在更高级别的协议(如传输层安全性(TLS))和密码方案(如混合公钥加密(HPKE))中使用 KEM。安全提供商可以在 Java 代码或本地代码中实现 KEM 算法,并包括在 RFC 9180 中定义的 Diffie-Hellman KEM(DHKEM)的实现。

  • 结构化并发(目前处于预览阶段)

    通过结构化并发 API 简化并发编程,将在不同线程中运行的相关任务组视为单个工作单元。这简化了错误处理和取消操作,提高了可靠性并增强了可观察性。结构化并发之前分别于 2022 年 3 月和 9 月在 JDK 20 和 JDK 19 中孵化,它作为 java.util.concurrent 包中的一个预览 API。这次唯一的重大变化是,StructuredTaskScope::Fork(…) 方法返回的是 [Subtask] 而不是 Future。结构化并发的目标包括促进一种并发编程风格,这种风格可以消除因取消和关闭而产生的常见风险(如线程泄漏和取消延迟),同时提高并发代码的可观察性。

MongoDB的客户端管理工具–nosqlbooster

推荐一款MongoDB的客户端工具–nosqlbooster,也是工作中一直使用的连接管理MongoDB的工具。这个工具还有个曾用名–mongobooster。nosqlbooster立志做“The Smartest IDE for MongoDB”。它支持 MongoDB v2.6-4.0所有版本,并且更新升级及时。它既有免费版,也有加强升级的付费版。

官网: https://nosqlbooster.com/downloads

工具支持Windows、Linux 和 Mac OS。

1693550711-7131-0b63a21f7d53eb9a0dd3764703e0

下面我将常见的一些操作 和大家讲解一下:

1.连接登入

step 1 点击上面工具栏的【Connect】按钮

1693550674-9349-20e9905b7fe2373516353f3319fe

 step 2 在弹出的Connections 界面中 点击[Create]按钮。因为是第一次,连接信息要新建。

1693550674-5373-470b93bdc6a11f7fda4776bf9daf

step 3 在弹出的Connection Editor 界面编辑登入信息。

有三类信息要求输入:1. Basic;2.Authentication;3.Default Database。

1. Basic 编辑界面;

这时候大家一定要注意Port端口,因为它默认的是27017,大家要根据实际需求调整修改。还有就是Name是显示名称,可以修改为更有代表性的名称。

1693550714-3993-37bd58d530c3fd90d17379806862

 2.点击【Authentication】,此处需输入 Auth DB 数据(数据库名称),用户数据 和 密码数据

1693550675-5244-30e864bdb114c48f930c423b1cd6

3.点击【Default DataBase】,进入Default DataBase界面。

1693550675-2090-8c6ca47100af7fd1fb84d745d2db

请一定要输入指定的数据库,否则可能提示错误,如:MongoError:Authentication Failed。或者可以登入进去,但是看不到任何 集合。

1693550685-3579-c51378683fb07b625ef4d91994ca

但是,随着版本的升级,新版本这个栏位的值在登入时可能会自动获取前面输入Auth DB的 输入值,但是目前来看还不是很稳定。

建议大家手动输入Default DataBase 数据。

2.打开一个新的查询界面

在很多工具,都会有一个打开查询界面的按钮。

例如:连接Sql Server的 SSMS客户端,工具栏很明显就有一个功能按钮【新建查询】

1693550685-5659-afd9c75db8578bf5dda1f74ea539

单纯的nosqlbooster工具没有这个选项,但是可以通过快捷方式来打开,如下:

1693550716-2728-9f1f7b631e15d8302568abdd49b0

注意点击时,请先用鼠标点击选中要指定的集合或数据库

3.查询代码生成器

这个工具还有一个查询代码生成器,可以将用户编写的查询语言装换成 MongoDB Shell、JavaScript 、Java、C# 、Python 等各种语言。例如:

1693550687-2290-453051c3d13dc1a57be6b0f4ba23

 转换为C# 语句,我们可以看到很多C# 语言关于MongoDB的操作写法。

1693550687-2649-c17634862a321036b2803dcdf64f

 4. 查询语句生成器

刚学习MongoDB,对一些查询写法比较陌生,这个工具可以自动生成一些查询语句。生成器按钮,点击红色标注的[Query]

1693550688-5832-2402b36bc2b2501828a62a976bd7

弹出可视化的查询编辑器,如下:

1693550700-7682-f503c8bba3a0a73d949d19b512a7

点击【OK and Run】就可以生成MongoDB Shell 查询语句。

一定要在生成了db.collectionname..find({}) 命令的界面上编辑,否则,点击Query无效

5.可以使用sql(结构化查询语言)查询

前面第2步中说过,点击【Ctrl+Alt+T】可以打开一个 sql 查询界面。例如

db.employees.aggregate([ { $group: { _id: “$department”,total: { $sum: “$salary” } },} ])

可以转换为sql语言,如下:

mb.runsqlQuery(` SELECT department,SUM(salary) AS total FROM employees GROUP BY department `);

其执行结果是一样的。

另外,为了促使自己尽快熟悉mongo语言,推荐大家还是使用mongo这种JSON类的语言,而不是sql的语言。

6.将查询出的数据导出到Excel文件中

在MongoDB的导出功能中支持JSON和CSV格式,而大家熟悉的Excel一般的工具很难支持,而我们可以通过nosqlbooster工具将少量数据导出到Excel中(所谓的少量数据要求主要受限于本地内存)。

下面以导出集合testexportToexcel的数据为例,进行演示说明。

step 1 执行查询语句

step 2 将显示格式调整为 Table 格式

1693550720-6721-cd743cab9d3fe50fd9c28efe9284

step 3 按Shift 键,选中所要导出的数据

1693550700-7125-2ca922bcd5846f6911753ab0d38c

step  4 在选中的数据区域中,鼠标右击,选中【copy  Document(s) to Clipboard -Tab-Separted Values

1693550705-1395-b02bd4dbede21cbf06f0ed6ae4c0

step 5 粘贴至excel文件中,即可。

1693550707-7336-54072d435c9073e939c9eda97c39

Kafka删除topic的方法

在运营环境中,删除kafka topic的方法,没有必要当然不要这么干,迫不得已才会去删除topic。

首先配置文件server.properties 增加参数 delete.topic.enable=true

其次呢,使用删除命令行:

./bin/kafka-topics.sh –delete –topic THIS_IS_MY_TOPIC –zookeeper localhost:2181

*红色字体需要替换。

或者使用kafka-manager集群管理工具删除。

如果删除之前,没有配置 delete.topic.enable=true 参数,那么topic只会标记为marked for deletion ,也就是说,只是标记并没有删除;

此时只要加上配置项,然后重启kafka就可以真正删除该topic。

如果重启还是没有被删除,那么就使用zookeeper的命令删除试试;

输入工具行命令: ./zookeeper-3.4.10/bin/zkCli.sh

此时进入了一个shell中端。

执行:ls /brokers/topics 命令可以查看当前brokers下所有topics。

然后执行: rmr /brokers/topics/[topic name] 删除指定的topic,但是可能会提示:

The command ‘rmr’ has been deprecated. Please use ‘deleteall’ instead.

只要把rmr换成deleteall就可以了,如:

deleteall /brokers/topics/[topic name]

再次使用ls /brokers/topics 命令查看topics,如果发现你要删除的topic还在,

执行:ls /admin/delete_topics  这里会显示出你刚刚要删除的topic,然后执行:deleteall /admin/delete_topics/[topic name]  就可以完全删除了。

总结一下:

1.执行:

./bin/kafka-topics.sh –delete –topic THIS_IS_MY_TOPIC –zookeeper localhost:2181

2.如果没有删除:

配置文件server.properties 增加参数 delete.topic.enable=true

3.重启kafka

4.还是没有删除:

执行:./zookeeper-3.4.10/bin/zkCli.sh

执行:ls /brokers/topics 命令可以查看当前brokers下所有topics

执行:deleteall /brokers/topics/[topic name]

 

5.再次使用ls /brokers/topics 命令查看topics,如果发现你要删除的topic还在

执行:ls /admin/delete_topics

执行:deleteall /admin/delete_topics/[topic name] 

结束完成。比较麻烦,但是有效解决在kafka使用过程中如果有需要删除topic而又删除失败。

Spring boot中mongodb的使用

MongoDB 简介

MongoDB(来自于英文单词“Humongous”,中文含义为“庞大”)是可以应用于各种规模的企业、各个行业以及各类应用程序的开源数据库。基于分布式文件存储的数据库。由C++语言编写。旨在为 WEB 应用提供可扩展的高性能数据存储解决方案。MongoDB 是一个高性能,开源,无模式的文档型数据库,是当前 NoSql 数据库中比较热门的一种。

MongoDB 是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。他支持的数据结构非常松散,是类似 json 的 bjson 格式,因此可以存储比较复杂的数据类型。MongoDB 最大的特点是他支持的查询语言非常强大,其语法有点类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能,而且还支持对数据建立索引。

传统的关系数据库一般由数据库(database)、表(table)、记录(record)三个层次概念组成,MongoDB 是由数据库(database)、集合(collection)、文档对象(document)三个层次组成。MongoDB 对于关系型数据库里的表,但是集合中没有列、行和关系概念,这体现了模式自由的特点。

MongoDB 中的一条记录就是一个文档,是一个数据结构,由字段和值对组成。MongoDB 文档与 JSON 对象类似。字段的值有可能包括其它文档、数组以及文档数组。MongoDB 支持 OS X、Linux 及 Windows 等操作系统,并提供了 Python,PHP,Ruby,Java及 C++ 语言的驱动程序,社区中也提供了对 Erlang 及 .NET 等平台的驱动程序。

MongoDB 的适合对大量或者无固定格式的数据进行存储,比如:日志、缓存等。对事物支持较弱,不适用复杂的多文档(多表)的级联查询。文中演示 Mongodb 版本为 3.5。

MongoDB 的增删改查

Spring Boot 对各种流行的数据源都进行了封装,当然也包括了 Mongodb,下面给大家介绍如何在 Spring Boot 中使用 Mongodb:

1、pom 包配置

pom 包里面添加 spring-boot-starter-data-mongodb 包引用

<dependencies>
	<dependency> 
	    <groupId>org.springframework.boot</groupId>
	    <artifactId>spring-boot-starter-data-mongodb</artifactId>
	</dependency> 
</dependencies>

2、在 application.properties 中添加配置

spring.data.mongodb.uri=mongodb://name:pass@localhost:27017/test

多个 IP 集群可以采用以下配置:

spring.data.mongodb.uri=mongodb://user:pwd@ip1:port1,ip2:port2/database

2、创建数据实体

public class User implements Serializable {
        private static final long serialVersionUID = -3258839839160856613L;
        private Long id;
        private String userName;
        private String passWord;

      //getter、setter省略
}

3、创建实体的增删改查操作

Repository 层实现了 User 对象的增删改查

@Component
public class UserRepositoryImpl implements UserRepository {

    @Autowired
    private MongoTemplate mongoTemplate;

    /**
     * 创建对象
     * @param user
     */
    @Override
    public void saveUser(User user) {
        mongoTemplate.save(user);
    }

    /**
     * 根据用户名查询对象
     * @param userName
     * @return
     */
    @Override
    public User findUserByUserName(String userName) {
        Query query=new Query(Criteria.where("userName").is(userName));
        User user =  mongoTemplate.findOne(query , User.class);
        return user;
    }

    /**
     * 更新对象
     * @param user
     */
    @Override
    public long updateUser(User user) {
        Query query=new Query(Criteria.where("id").is(user.getId()));
        Update update= new Update().set("userName", user.getUserName()).set("passWord", user.getPassWord());
        //更新查询返回结果集的第一条
        UpdateResult result =mongoTemplate.updateFirst(query,update,User.class);
        //更新查询返回结果集的所有
        // mongoTemplate.updateMulti(query,update,UserEntity.class);
        if(result!=null)
            return result.getMatchedCount();
        else
            return 0;
    }

    /**
     * 删除对象
     * @param id
     */
    @Override
    public void deleteUserById(Long id) {
        Query query=new Query(Criteria.where("id").is(id));
        mongoTemplate.remove(query,User.class);
    }
}

4、开发对应的测试方法

@RunWith(SpringRunner.class)
@SpringBootTest
public class UserDaoTest {

    @Autowired
    private UserDao userDao;

    @Test
    public void testSaveUser() throws Exception {
        UserEntity user=new UserEntity();
        user.setId(2l);
        user.setUserName("小明");
        user.setPassWord("fffooo123");
        userDao.saveUser(user);
    }

    @Test
    public void findUserByUserName(){
       UserEntity user= userDao.findUserByUserName("小明");
       System.out.println("user is "+user);
    }

    @Test
    public void updateUser(){
        UserEntity user=new UserEntity();
        user.setId(2l);
        user.setUserName("天空");
        user.setPassWord("fffxxxx");
        userDao.updateUser(user);
    }

    @Test
    public void deleteUserById(){
        userDao.deleteUserById(1l);
    }

}

5、查看验证结果

可以使用工具 MongoVUE 工具来连接后直接图形化展示查看,也可以登录服务器用命令来查看

1.登录 mongos

bin/mongo -host localhost -port 20000

2、切换到 test 库

use test

3、查询 user 集合数据

db.user.find()

根据3查询的结果来观察测试用例的执行是否正确。

到此 Spring Boot 对应 MongoDB 的增删改查功能已经全部实现。

多数据源 MongoDB 的使用

接下来实现 MongoDB 多数据源的使用

1、pom 包配置

<dependencies>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-data-mongodb</artifactId>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-test</artifactId>
    </dependency>
</dependencies>

2、配置两条数据源,如下:

mongodb.primary.uri=mongodb://192.168.0.75:20000
mongodb.primary.database=primary
mongodb.secondary.uri=mongodb://192.168.0.75:20000
mongodb.secondary.database=secondary

3、配置两个库的数据源

封装读取以 Mongodb 开头的两个配置文件

@Data
@ConfigurationProperties(prefix = "mongodb")
public class MultipleMongoProperties {

	private MongoProperties primary = new MongoProperties();
	private MongoProperties secondary = new MongoProperties();
}

配置不同包路径下使用不同的数据源

第一个库的封装

@Configuration
@EnableMongoRepositories(basePackages = "com.neo.model.repository.primary",
		mongoTemplateRef = PrimaryMongoConfig.MONGO_TEMPLATE)
public class PrimaryMongoConfig {

	protected static final String MONGO_TEMPLATE = "primaryMongoTemplate";
}

第二个库的封装

@Configuration
@EnableMongoRepositories(basePackages = "com.neo.model.repository.secondary",
		mongoTemplateRef = SecondaryMongoConfig.MONGO_TEMPLATE)
public class SecondaryMongoConfig {

	protected static final String MONGO_TEMPLATE = "secondaryMongoTemplate";
}

读取对应的配置信息并且构造对应的 MongoTemplate

@Configuration
public class MultipleMongoConfig {

    @Autowired
    private MultipleMongoProperties mongoProperties;

    @Primary
    @Bean(name = "primaryMongoTemplate")
    public MongoTemplate primaryMongoTemplate() throws Exception {
        return new MongoTemplate(primaryFactory(this.mongoProperties.getPrimary()));
    }

    @Bean
    @Qualifier("secondaryMongoTemplate")
    public MongoTemplate secondaryMongoTemplate() throws Exception {
        return new MongoTemplate(secondaryFactory(this.mongoProperties.getSecondary()));
    }

    @Bean
    @Primary
    public MongoDatabaseFactory primaryFactory(MongoProperties mongo) throws Exception {
        MongoClient client = MongoClients.create(mongo.getUri());
        return new SimpleMongoClientDatabaseFactory(client, mongoProperties.getPrimary().getDatabase());
    }

    @Bean
    public MongoDatabaseFactory secondaryFactory(MongoProperties mongo) throws Exception {
        MongoClient client = MongoClients.create(mongo.getUri());
        return new SimpleMongoClientDatabaseFactory(client, mongoProperties.getSecondary().getDatabase());
    }
}

两个库的配置信息已经完成。

4、创建两个库分别对应的对象和 Repository

对应可以共用

public class User implements Serializable {
        private static final long serialVersionUID = -3258839839160856613L;
        private String  id;
        private String userName;
        private String passWord;

        public User(String userName, String passWord) {
                this.userName = userName;
                this.passWord = passWord;
        }
}

对应的 Repository

public interface PrimaryRepository extends MongoRepository<PrimaryMongoObject, String> {
}

继承了 MongoRepository 会默认实现很多基本的增删改查,省了很多自己写 Repository 层的代码

Secondary 和上面的代码类似就不贴出来了

5、最后测试

@RunWith(SpringRunner.class)
@SpringBootTest
public class MuliDatabaseTest {

    @Autowired
    private PrimaryRepository primaryRepository;

    @Autowired
    private SecondaryRepository secondaryRepository;

    @Test
    public void TestSave() {

        System.out.println("************************************************************");
        System.out.println("测试开始");
        System.out.println("************************************************************");

        this.primaryRepository
                .save(new PrimaryMongoObject(null, "第一个库的对象"));

        this.secondaryRepository
                .save(new SecondaryMongoObject(null, "第二个库的对象"));

        List<PrimaryMongoObject> primaries = this.primaryRepository.findAll();
        for (PrimaryMongoObject primary : primaries) {
            System.out.println(primary.toString());
        }

        List<SecondaryMongoObject> secondaries = this.secondaryRepository.findAll();

        for (SecondaryMongoObject secondary : secondaries) {
            System.out.println(secondary.toString());
        }

        System.out.println("************************************************************");
        System.out.println("测试完成");
        System.out.println("************************************************************");
    }

}

到此,MongoDB 多数据源的使用已经完成。

来源于:http://www.ityouknow.com/springboot/2023/01/11/spring-boot-mongodb.html

kafka集群服务broker扩容

原先的3节点的kafka假设为node1、node2、node3

准备2台空闲点的服务器(这里假设为node4和node5)

系统版本:CentOS7

node1  192.168.2.187

node2  192.168.2.188

node3  192.168.2.189

node4  192.168.2.190

node5  192.168.2.191

kafka的扩容操作分为2步:

1、zk 节点扩容

2、kafka 节点扩容

首先在node4 node5上把相关的软件部署好:

cd /root/
tar xf zookeeper-3.4.9.tar.gz
tar xf kafka_2.11-0.10.1.0.tar.gz 
tar xf jdk1.8.0_101.tar.gz 

mv kafka_2.11-0.10.1.0  zookeeper-3.4.9   jdk1.8.0_101   /usr/local/

cd /usr/local/ 
ln -s zookeeper-3.4.9   zookeeper-default
ln -s kafka_2.11-0.10.1.0  kafka-default
ln -s jdk1.8.0_101    jdk-default

第一部分:zk节点的扩容:

1、在node4上执行:

mkdir /usr/local/zookeeper-default/data/ 

vim  /usr/local/zookeeper-default/conf/zoo.cfg  在原有的基础上,增加最后的2行配置代码:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper-default/data/
clientPort=2181
maxClientCnxns=2000
maxSessionTimeout=240000
server.1=192.168.2.187:2888:3888
server.2=192.168.2.188:2888:3888
server.3=192.168.2.189:2888:3888
server.4=192.168.2.190:2888:3888
server.5=192.168.2.191:2888:3888

## 清空目录防止有脏数据
rm -fr /usr/local/zookeeper-default/data/*

## 添加对应的myid文件到zk数据目录下
echo 4 > /usr/local/zookeeper-default/data/myid

2、启动node4的zk进程:

/usr/local/zookeeper-default/bin/zkServer.sh start

/usr/local/zookeeper-default/bin/zkServer.sh  status   类似如下效果:
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper-default/bin/../conf/zoo.cfg
Mode: follower

/usr/local/zookeeper-default/bin/zkCli.sh

echo stat | nc 127.0.0.1 2181  结果类似如下:
Zookeeper version: 3.4.9-1757313, built on 08/23/2016 06:50 GMT
Clients:
 /127.0.0.1:50072[1](queued=0,recved=6,sent=6)
 /127.0.0.1:50076[0](queued=0,recved=1,sent=0)

Latency min/avg/max: 0/2/13
Received: 24
Sent: 23
Connections: 2
Outstanding: 0
Zxid: 0x10000009a
Mode: follower
Node count: 63

3、在node5上执行:

vim  /usr/local/zookeeper-default/conf/zoo.cfg  增加最后的2行代码:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper-default/data/
clientPort=2181
maxClientCnxns=2000
maxSessionTimeout=240000
server.1=192.168.2.187:2888:3888
server.2=192.168.2.188:2888:3888
server.3=192.168.2.189:2888:3888
server.4=192.168.2.190:2888:3888
server.5=192.168.2.191:2888:3888

## 清空目录防止有脏数据
rm -fr /usr/local/zookeeper-default/data/*

## 添加对应的myid文件到zk数据目录下
echo 5 > /usr/local/zookeeper-default/data/myid

4、启动node5的zk进程:

/usr/local/zookeeper-default/bin/zkServer.sh start

/usr/local/zookeeper-default/bin/zkServer.sh  status
 
echo stat | nc  127.0.0.1 2181  结果类似如下:
Zookeeper version: 3.4.9-1757313, built on 08/23/2016 06:50 GMT
Clients:
 /127.0.0.1:45582[0](queued=0,recved=1,sent=0)
Latency min/avg/max: 0/0/0
Received: 3
Sent: 2
Connections: 1
Outstanding: 0
Zxid: 0x10000009a
Mode: follower
Node count: 63
也可以使用 echo mntr   | nc  127.0.0.1 2181  这个结果更详细,类似如下:
zk_version3.4.9-1757313, built on 08/23/2016 06:50 GMT
zk_avg_latency0
zk_max_latency194
zk_min_latency0
zk_packets_received101436
zk_packets_sent102624
zk_num_alive_connections4
zk_outstanding_requests0
zk_server_statefollower
zk_znode_count141
zk_watch_count190
zk_ephemerals_count7
zk_approximate_data_size10382
zk_open_file_descriptor_count35
zk_max_file_descriptor_count102400

5、当我们确认 新加的2个zk节点没问题后,我们需要去修改之前的老的3台zk的配置,然后重启这3个zk

修改 node1 node2 node3的 zk配置,如下:

vim  /usr/local/zookeeper-default/conf/zoo.cfg  增加最后的2行代码:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper-default/data/
clientPort=2181
maxClientCnxns=2000
maxSessionTimeout=240000
server.1=192.168.2.187:2888:3888
server.2=192.168.2.188:2888:3888
server.3=192.168.2.189:2888:3888
server.4=192.168.2.190:2888:3888
server.5=192.168.2.191:2888:3888

注意重启的时候,我们先重启 follower节点(例如我这里follower是 node2、node3,leader是 node1)

/usr/local/zookeeper-default/bin/zkServer.sh stop
/usr/local/zookeeper-default/bin/zkServer.sh status

/usr/local/zookeeper-default/bin/zkServer.sh start
/usr/local/zookeeper-default/bin/zkServer.sh status

第二部分:kafka节点的扩容:

1、node4 (192.168.2.190)上修改:

mkdir -pv /usr/local/kafka-default/kafka-logs

vim /usr/local/kafka-default/config/server.properties  修改后的文件如下:
broker.id=4   # 注意修改这里
listeners=PLAINTEXT://:9094,TRACE://:9194
advertised.listeners=PLAINTEXT://192.168.2.190:9094
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/usr/local/kafka-default/kafka-logs
num.partitions=3
num.recovery.threads.per.data.dir=1
log.retention.hours=24
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.2.187:2181,192.168.2.188:2181,192.168.2.189:2181,192.168.2.190:2181,192.168.2.191:2181  # 注意修改这里
zookeeper.connection.timeout.ms=6000
default.replication.factor=2
compression.type=gzip
offsets.retention.minutes=2880
controlled.shutdown.enable=true
delete.topic.enable=true

2、启动node4的kafka程序:

/usr/local/kafka-default/bin/kafka-server-start.sh -daemon /usr/local/kafka-default/config/server.properties

3、node5(192.168.2.191)上修改

mkdir -pv /usr/local/kafka-default/kafka-logs

vim /usr/local/kafka-default/config/server.properties  修改后的文件如下:
broker.id=5   # 注意修改这里
listeners=PLAINTEXT://:9094,TRACE://:9194
advertised.listeners=PLAINTEXT://192.168.2.191:9094
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/usr/local/kafka-default/kafka-logs
num.partitions=3
num.recovery.threads.per.data.dir=1
log.retention.hours=24
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.2.187:2181,192.168.2.188:2181,192.168.2.189:2181,192.168.2.190:2181,192.168.2.191:2181   # 注意修改这里
zookeeper.connection.timeout.ms=6000
default.replication.factor=2
compression.type=gzip
offsets.retention.minutes=2880
controlled.shutdown.enable=true
delete.topic.enable=true

4、启动node5的kafka程序:

/usr/local/kafka-default/bin/kafka-server-start.sh -daemon /usr/local/kafka-default/config/server.properties

5、测试是否有问题

这里我们可以自己先用 kafka-console-producer.sh 和 kafka-console-consumer.sh  自测下是否 正常工作,然后看看 kafka-manager上是否有需要重新均衡的副本。。

第三部分:对存在风险broker节点的数据迁移(我这里需要这么操作,单纯的扩容不需要这个步骤):

这里我们可以使用kafka-manager这个web平台来做 topic的迁移操作,很简单,这里就不截图了。

第四部分: 对node2 node3下线操作

1、关闭node2 node3节点上面的zk进程,让zk leader节点自动选举

2、关闭node2 node3上面的kafka进程,让kafka controller节点自动选举

## 可能遇到的问题: 

在迁移过程中,遇到consumergroup在我们迁移topic的时候发生异常,让业务方重启了consumer后 报错消失。。

 

转自:https://blog.51cto.com/lee90/2423980

 
Copyright © 2008-2021 lanxinbase.com Rights Reserved. | 粤ICP备14086738号-3 |