博客
关于我
CountDownLatch和CyclicBarrier并发容器
阅读量:207 次
发布时间:2019-02-28

本文共 2921 字,大约阅读时间需要 9 分钟。

如何让一段程序并发的执行,并最终汇总结果?

使用CyclicBarrier 在多个关口处将多个线程执行结果汇总, CountDownLatch 在各线程执行完毕后向总线程汇报结果。

CountDownLatch : 一个线程(或者多个), 等待另外N个线程完成某个事情之后才能执行。

CyclicBarrier : N个线程相互等待,任何一个线程完成之前,所有的线程都必须等待。

这样应该就清楚一点了,对于CountDownLatch来说,重点是那个“一个线程”, 是它在等待,而另外那N的线程在把“某个事情”做完之后可以继续等待,可以终止。而对于CyclicBarrier来说,重点是那N个线程,他们之间任何一个没有完成,所有的线程都必须等待。

从api上理解就是CountdownLatch有主要配合使用两个方法countDown()和await(),countDown()是做事的线程用的方法,await()是等待事情完成的线程用个方法,这两种线程是可以分开的(下面例子:CountdownLatchTest2),当然也可以是同一组线程;CyclicBarrier只有一个方法await(),指的是做事线程必须大家同时等待,必须是同一组线程的工作。

import java.util.concurrent.CountDownLatch;import java.util.concurrent.ExecutorService;import java.util.concurrent.Executors;/*** 各个线程执行完成后,主线程做总结性工作的例子* @author xuexiaolei* @version 2017年11月02日*/public class CountdownLatchTest2 {  private final static int THREAD_NUM = 10;  public static void main(String[] args) {      CountDownLatch lock = new CountDownLatch(THREAD_NUM);      ExecutorService exec = Executors.newCachedThreadPool();      for (int i = 0; i < THREAD_NUM; i++) {          exec.submit(new CountdownLatchTask(lock, "Thread-"+i));      }      try {          lock.await();      } catch (InterruptedException e) {          e.printStackTrace();      }      System.out.println("大家都执行完成了,做总结性工作");      exec.shutdown();  }  static class CountdownLatchTask implements Runnable{      private final CountDownLatch lock;      private final String threadName;      CountdownLatchTask(CountDownLatch lock, String threadName) {          this.lock = lock;          this.threadName = threadName;      }      @Override public void run() {          System.out.println(threadName + " 执行完成");          lock.countDown();      }  }}

CyclicBarrier例子:

import java.util.concurrent.*;/**** @author xuexiaolei* @version 2017年11月02日*/public class CyclicBarrierTest {  private final static int THREAD_NUM = 10;  public static void main(String[] args) {      CyclicBarrier lock = new CyclicBarrier(THREAD_NUM, new Runnable() {          @Override public void run() {              System.out.println("这阶段大家都执行完成了,我总结一下,然后开始下一阶段");          }      });      ExecutorService exec = Executors.newCachedThreadPool();      for (int i = 0; i < THREAD_NUM; i++) {          exec.submit(new CountdownLatchTask(lock, "Task-"+i));      }      exec.shutdown();  }  static class CountdownLatchTask implements Runnable{      private final CyclicBarrier lock;      private final String threadName;      CountdownLatchTask(CyclicBarrier lock, String threadName) {          this.lock = lock;          this.threadName = threadName;      }      @Override public void run() {          for (int i = 0; i < 3; i++) {              System.out.println(threadName + " 执行完成");              try {                  lock.await();              } catch (BrokenBarrierException e) {                  e.printStackTrace();              } catch (InterruptedException e) {                  e.printStackTrace();              }          }      }  }}

 

转载地址:http://pgqs.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>