V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
xiaofan2
V2EX  ›  Java

大数据量下的精确统计解决方案

  •  
  •   xiaofan2 · 2021-05-09 12:58:52 +08:00 · 3192 次点击
    这是一个创建于 1330 天前的主题,其中的信息可能已经有所发展或是发生改变。

    目前我们面临的一个问题是每天我们跟资金相关的交易记录大概在 2T 左右,我们需要每日将这些信息进行统计然后给财务入账。目前采取的方式是将 mysql 的数据同步到 hive,然后从 hive 出数统计。但是在这个过程中 hive 可能存在数据丢失的情况,想问问大家行业内对这种大数据量的精确统计有没有什么解决方案?

    第 1 条附言  ·  2021-05-10 09:20:36 +08:00
    统一回复下,2T 这个数量级是每天需要统计的所有数据在一起的数量,其中有两张大表(1000 张分表)的每日增量是 1T 。

    Hive 丢数指的是从 Mysql 同步到 hive 的时候丢失数据,据了解,同步工具底层是二次开发的 DataX 。同步工具的同学给我们的回答是丢数的原因是在极短的时间内如果对一条数据有多次更新,只会取最新的一条,但是无法保证在处理的时候能保证这多次更新的顺序,每日生成数据是读取 binlog 日志然后 merge 之前分区的数据进行的,具体的原因由于自己没了解过底层实现,所以只能给个大概原因。

    然后为什么来发帖? 因为确实找不到大家所说的行业专家来咨询。如果大家有相关的专家可以推荐给我一下,可付费咨询。感谢各位!
    21 条回复    2021-05-10 16:01:11 +08:00
    liprais
        1
    liprais  
       2021-05-09 13:15:46 +08:00 via iPhone
    为啥 hive 会丢数
    ipwx
        2
    ipwx  
       2021-05-09 13:29:52 +08:00
    2T? 硬盘读取速度在 100MB/s ~ 300MB/s 这个量级,扫一遍不到 1 分钟?实在不行原始数据弄成某种自有格式,然后写个程序扫一遍?
    limbo0
        3
    limbo0  
       2021-05-09 13:30:49 +08:00
    最好多重方式进行验证, 保证一致
    hive 为啥会丢失?
    cxxlxx
        4
    cxxlxx  
       2021-05-09 13:42:31 +08:00 via Android
    @ipwx 请问是怎么的出 2t 扫描一编不到一分钟的?
    makdon
        5
    makdon  
       2021-05-09 13:54:29 +08:00
    @cxxlxx 应该是直接算的硬盘连续读写速度吧
    但是为啥 hive 会丢数?
    ipwx
        6
    ipwx  
       2021-05-09 14:46:36 +08:00
    @cxxlxx ummm 不好意思脑子秀逗了。20×1000s,大概是 5 个小时?
    crclz
        7
    crclz  
       2021-05-09 16:38:39 +08:00
    解决数据丢失:
    方案一:借助数字 ID 的连续性。这个很好理解吧。如果 id 不是连续的,或者不是数字,请看方案 2.
    方案二:只需要合理设计接口即可。具体见下面的例子。
    方案三:使用 outbox pattern (交易记录增加一个字段“是否已同步”),需要借助最少一次送达的消息队列。https://microservices.io/patterns/data/transactional-outbox.html

    方案 1 和 2 非常类似,属于数据接收方主动。方案 3 属于数据持有方主动。

    ---
    举一个方案 2 的具体例子:

    (先假设 id 的大小关系和时间的大小关系一致,或者说后插入的数据 id 大)

    数据持有方这样设计请求接口:
    GET /records?start=1001&count=500
    response: { data: [...], hasNext: True }

    这样设计的好处:
    1. 批量操作(参数 count ),效率损失少。
    2. 不会错过数据。接收方每次查询时,只需要将 start 设为自己数据库里面最后一条 id 即可。

    注意:对于数据发送方是分布式数据库例如 mongodb,为了防止“后插入的数据 id 大”这一假设被打破,应当合理设置 read concern 。

    ---

    具体是方案 2 还是方案 3,就见仁见智了。我个人认为方案 2 灵活性强,学习成本小,利于团队间合作。

    性能方面的建议:
    削峰。同步数据的工作分散到每一个小时,而不是每天结束时做。
    Mohanson
        8
    Mohanson  
       2021-05-09 17:17:33 +08:00 via Android
    没法想象一天 2T 的数据 + mysql 组合
    Lemeng
        9
    Lemeng  
       2021-05-09 17:38:15 +08:00
    丢数据,是有原因的吧,还有 2T 每天?
    wmhack
        10
    wmhack  
       2021-05-09 17:39:18 +08:00
    可以写一个补数据的程序,在数据跑完之后,去 hive 当中查询缺失了哪些数据,然后从 mysql 当中拉取这部分丢失了的数据,再写入 hive
    hallDrawnel
        11
    hallDrawnel  
       2021-05-09 18:38:48 +08:00
    2T 是不是记录了太多不相关的数据?可以减少数据量吗?
    xuanbg
        12
    xuanbg  
       2021-05-09 19:00:16 +08:00
    1 天 2T 数据,最省钱省力的解决方案绝对是花钱请人搞而不是在这里发帖问。
    ch2
        13
    ch2  
       2021-05-09 19:39:13 +08:00
    把数据写到 clickhouse 里,2T 不是问题
    akira
        14
    akira  
       2021-05-09 20:00:14 +08:00
    @xuanbg 应该是找什么人 也不知道去哪找,才来发帖的吧

    同样不知道应该找什么人的路过。。。
    ijk0
        15
    ijk0  
       2021-05-09 20:39:37 +08:00 via iPhone
    先找到 hive 丢数的原因吧(如果真的是 hive 的锅)
    muzuiget
        16
    muzuiget  
       2021-05-10 01:18:50 +08:00
    一天 2T 数据,这种级别,请个行业专家吧。
    xiaofan2
        17
    xiaofan2  
    OP
       2021-05-10 09:24:55 +08:00
    @crclz 感谢您的回答。首先我们的 id 目前是不是连续的,虽然可以切换到 snowflake id 生成器,但是由于对这个算法进行了一些优化,比如会提前批量生成一批 id,所以只能保证趋势递增,而不能保证连续单调按时间递增,所以您说的一盒二实现起来有点困难。 对于方法三的话,由于对表进行更新的话会涉及到线上业务,有点困难
    xiaofan2
        18
    xiaofan2  
    OP
       2021-05-10 09:37:24 +08:00
    @ch2 mysql 同步到 clickHouse 能保证数据不丢吗
    weizhen199
        19
    weizhen199  
       2021-05-10 13:36:03 +08:00
    一天 2T 数据,还是请人或者花钱找人吧。
    精准统计 hive 还是太难为他了。多半你们也是开源自己搭的吧
    crclz
        20
    crclz  
       2021-05-10 14:56:13 +08:00
    @xiaofan2 不一定是 ID,时间戳字段也行。另外时间戳可能无法保证最新数据的插入顺序,但是一段时间之前(例如 10 分钟)的数据的顺序是稳定的。

    对于插入顺序的保证:我去调研了一下,单机的可以保证(例如 MySQL AutoIncrease ),但是分布式的不能保证(例如 mongo )。此时一个解决方案是上文所说的(同步一段时间之前的数据),另一个解决方案是使用能够保证插入顺序的消息队列服务,例如 kafka 。
    ddkk1112
        21
    ddkk1112  
       2021-05-10 16:01:11 +08:00
    试试阿里的 canal,binlog 同步工具
    mysql->canal->kafka->etl
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1075 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 18:12 · PVG 02:12 · LAX 10:12 · JFK 13:12
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.