V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
Frankcox
V2EX  ›  问与答

AWS S3 大量日志数据写入数据库方法

  •  1
     
  •   Frankcox · 2023-03-18 14:28:04 +08:00 · 623 次点击
    这是一个创建于 403 天前的主题,其中的信息可能已经有所发展或是发生改变。
    最近要将 S3 的日志数据导出到自建 clickhouse ,日志都是统一格式,但是数据量很大。尝试使用 goroutine 并发读写,但是发现在请求数过多时,aws s3 client 会报 read: connection reset by peer 的异常,导致并发数上不去,光是一天的日志就要请求将近几十分钟,想知道有什么实现好办法?
    3 条回复    2023-03-18 17:06:16 +08:00
    Frankcox
        1
    Frankcox  
    OP
       2023-03-18 14:53:49 +08:00
    还有就是考虑如何同步数据,可以用代码监控,不知道 lambda 表达式能不能支持。
    gtx990
        2
    gtx990  
       2023-03-18 15:10:54 +08:00 via Android
    replicate 到多个 bucket ,每个路径单独算 throttle 。

    或者你这样,直接用 redshift (spectrum),直接 query s3 ,或者 load 到 redshift managed 的 s3 ,性能完全不比 clickhouse 差。
    Frankcox
        3
    Frankcox  
    OP
       2023-03-18 17:06:16 +08:00
    @gtx990 #2 性能倒不是特别关注的问题,这个活是老板给的,,,就是让把数据导到 clickhouse 。第一个能详细解释下吗
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1013 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 32ms · UTC 21:59 · PVG 05:59 · LAX 14:59 · JFK 17:59
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.