首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX 提问指南
广告
V2EX
›
问与答
AWS S3 大量日志数据写入数据库方法
1
Frankcox
·
72 天前
· 439 次点击
这是一个创建于 72 天前的主题,其中的信息可能已经有所发展或是发生改变。
最近要将 S3 的日志数据导出到自建 clickhouse ,日志都是统一格式,但是数据量很大。尝试使用 goroutine 并发读写,但是发现在请求数过多时,aws s3 client 会报 read: connection reset by peer 的异常,导致并发数上不去,光是一天的日志就要请求将近几十分钟,想知道有什么实现好办法?
日志
AWS
请求
clickhouse
3 条回复
•
2023-03-18 17:06:16 +08:00
1
Frankcox
OP
72 天前
还有就是考虑如何同步数据,可以用代码监控,不知道 lambda 表达式能不能支持。
2
gtx990
72 天前 via Android
replicate 到多个 bucket ,每个路径单独算 throttle 。
或者你这样,直接用 redshift (spectrum),直接 query s3 ,或者 load 到 redshift managed 的 s3 ,性能完全不比 clickhouse 差。
3
Frankcox
OP
72 天前
@
gtx990
#2 性能倒不是特别关注的问题,这个活是老板给的,,,就是让把数据导到 clickhouse 。第一个能详细解释下吗
关于
·
帮助文档
·
博客
·
nftychat
·
API
·
FAQ
·
我们的愿景
·
实用小工具
·
3831 人在线
最高记录 5634
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms ·
UTC 05:31
·
PVG 13:31
·
LAX 22:31
·
JFK 01:31
Developed with
CodeLauncher
♥ Do have faith in what you're doing.