V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
Zuckonit
V2EX  ›  问与答

数据库表去重 unique 失效

  •  
  •   Zuckonit · 2014-07-16 13:34:22 +08:00 · 3017 次点击
    这是一个创建于 3783 天前的主题,其中的信息可能已经有所发展或是发生改变。
    假设有一张文件信息表, 我是根据文件md5去去重的, 且UniqueConstraint('md5', name='md5_uqe'),现在我往表里面插入数据, 发现一个问题, 当快速多次触发插入同一条文件信息的动作的时候, 发现这条文件信息会有两次记录。 由于插入一条信息比较耗时,我在插入一条数据的时候会先去判断表里面是否已经存在该MD5, 不存在才插入, 我猜测是不是因为在一条信息还没插完的时候, 同样md5的信息也在插入, 造成了该问题, 可是unique难道没效果么? 请教大家有啥解决方案。

    环境: mysql + sqlalchemy
    3 条回复    2014-07-16 14:07:55 +08:00
    msg7086
        1
    msg7086  
       2014-07-16 13:46:19 +08:00
    mysql有用到unique索引吗?

    先判断md5再插入的话操作不是原子性的,会被打断
    Zuckonit
        2
    Zuckonit  
    OP
       2014-07-16 13:57:49 +08:00
    @msg7086 这个的确不是原子性操作, 请教通过sqlalchemy不这样做还有什么办法
    msg7086
        3
    msg7086  
       2014-07-16 14:07:55 +08:00
    @Zuckonit 如果你一定要在不加unique索引的情况下判断的话,得用insert select where not exists来实现原子操作。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2827 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 14:25 · PVG 22:25 · LAX 06:25 · JFK 09:25
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.