1
renmu 2023-05-07 16:26:08 +08:00 via Android
就这点数据直接都拿出来放到内存处理应该也没啥问题,全量导出也不是啥频繁操作的东西
|
2
iOCZ 2023-05-07 16:26:41 +08:00
联表查询不是一般操作么?
|
3
aru 2023-05-07 16:29:09 +08:00
直接 join 就行了,有性能问题再说
|
4
yinmin 2023-05-07 17:27:31 +08:00 via iPhone
2 次 join 是正解。
|
5
taotaodaddy 2023-05-07 19:09:50 +08:00
join
|
6
oneisall8955 2023-05-07 19:31:05 +08:00 via Android
做好覆盖索引(手机号+姓名),不回表,这点数据量没问题
|
7
qIssac 2023-05-07 19:31:57 +08:00
这数据量太小了,mysql 两次 join 一点问题没有
|
8
ql562482472 2023-05-07 19:51:33 +08:00
内存处理 这点东西。。
|
9
xwayway 2023-05-07 20:11:26 +08:00 via iPhone
这点数据量,直接 join 不会有任何问题……
|
10
xuanbg 2023-05-07 20:26:21 +08:00
就这点数据还不直接 join 么?而且你这个 join 都不会产生笛卡尔积的,怕什么。
|
11
user9121 2023-05-07 20:54:43 +08:00
把用户表全部读入到内存,然后轮询休假表?个人想法。
|
12
azui999 2023-05-08 10:13:37 +08:00
就这点东西,量级再乘以 100,单机也足够操作
|
13
humbass 2023-05-08 14:15:21 +08:00
又不是几个亿的数据,速度没要求直接 join ,有要求的话通过 redis 处理
|
14
jwh199588 OP 这个任务的数据量确实不大,我只是想通过这个做一个延伸,如果在后面遇到了大数据量,该如何处理
|