首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX 提问指南
广告
V2EX
›
问与答
数据库表去重 unique 失效
Zuckonit
·
2014-07-16 13:34:22 +08:00
· 3037 次点击
这是一个创建于 3813 天前的主题,其中的信息可能已经有所发展或是发生改变。
假设有一张文件信息表, 我是根据文件md5去去重的, 且UniqueConstraint('md5', name='md5_uqe'),现在我往表里面插入数据, 发现一个问题, 当快速多次触发插入同一条文件信息的动作的时候, 发现这条文件信息会有两次记录。 由于插入一条信息比较耗时,我在插入一条数据的时候会先去判断表里面是否已经存在该MD5, 不存在才插入, 我猜测是不是因为在一条信息还没插完的时候, 同样md5的信息也在插入, 造成了该问题, 可是unique难道没效果么? 请教大家有啥解决方案。
环境: mysql + sqlalchemy
md5
插入
解决方案
3 条回复
•
2014-07-16 14:07:55 +08:00
1
msg7086
2014-07-16 13:46:19 +08:00
mysql有用到unique索引吗?
先判断md5再插入的话操作不是原子性的,会被打断
2
Zuckonit
OP
2014-07-16 13:57:49 +08:00
@
msg7086
这个的确不是原子性操作, 请教通过sqlalchemy不这样做还有什么办法
3
msg7086
2014-07-16 14:07:55 +08:00
@
Zuckonit
如果你一定要在不加unique索引的情况下判断的话,得用insert select where not exists来实现原子操作。
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
1015 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms ·
UTC 20:22
·
PVG 04:22
·
LAX 12:22
·
JFK 15:22
Developed with
CodeLauncher
♥ Do have faith in what you're doing.