1
vus520 2023-06-15 21:28:06 +08:00 1
前提
1. 用户和你要有大量的图片 2. 搜索次数要足够高,才能 cover 你的成本 现实 1. 普通用户没有大量的图片和大量的搜索需求 2. 有大量图片的用户,一般不会放在 3 无平台上 3. 现在做多模态搜索的云和模型很多,甚至一台 GPU 机器就可以取得不错的性能 建议 1. 开源,做一些企业的订制功能 2. 接入云市场,直接使用用户的存储数据 |
2
Thiece OP @vus520
考虑过将项目制作成一个容器服务,提供给专业用户进行私有化部署,但是此场景下,用户的需求就变成检索自己的数据集中的图像文件; 这种情况下我占时没找到有类似特征的用户群体,如果有也请给予我一些提示,十分感谢; 接入云市场是一个非常棒的想法,比如为 NAS 用户提供快速的本地图像内容检索; |
3
lucybenz 2023-06-16 06:41:59 +08:00
换个表达方式 图片资产标注 输出标签文本和提供快速检索 slogan:把你的素材变成资产
|
4
star7th 2023-06-16 09:01:25 +08:00 1
大概率不能。百度和谷歌都提供识图功能,且他们的搜索范围更广。你做这个,推广都是一个问题,别说盈利了。
|
5
star7th 2023-06-16 09:02:25 +08:00
nas 的话,像群晖这些商家不知道提供功能了没。如果没有,他们早晚会做这个功能。
|
7
star7th 2023-06-16 10:08:17 +08:00
|
8
maggch97 2023-06-16 10:58:33 +08:00
先找到用户使用,再考虑盈利。如果初期用户的成本都 cover 不了,直接别做。
|
9
Thiece OP @star7th
技术方案和落地场景上不一样; 这套技术主要面向的场景是精准搜索,把残缺的图片精准的搜索出原图;或者尝试通过文字精准搜索到原图; 如果是面向相册的搜索场景,文字搜索的案例是:女人、天空、草地、树,也可以用自然语言句子; 如果是面向视频的搜索场景,文字搜索的案例是:胡歌、古装、剑; |
12
erquren 2023-06-16 13:56:35 +08:00
我们有这样的需求,一个厂区有 200 多个摄像头,全部做了 6 个月的录像保存,我现在需要把有车的时间戳弄出来,有人的时间戳弄出来,或者其他客户想要找的东西都弄出来
|
14
bqn 2023-06-16 17:17:45 +08:00
有一个应用,是客户端的,对本机的媒体资源处理后,支持文搜和图搜的
|
15
token10086 2023-06-17 00:18:09 +08:00
回不了本吧,我给公司做的是双塔跑了怼 ES 里面求距离。但是对个人来说我感觉除非是找番号,否则真的很难回本。
|
16
qztx 2023-06-17 11:06:00 +08:00 via Android
想要自部署的,自己电脑上存储了大量的美图色图,经常想要通过记忆中的特征或者模糊图找到原图
搜互联网感觉不太现实,个人没有钱和精力去处理海量的图片,而且市面上已经有不少大的平台了 |
17
elonmask 2023-06-18 00:23:41 +08:00 via Android
把 clip 模型转成 coreml 或者 tflite 塞手机 app 中做个 app 都比你这有前途。
|
20
Thiece OP @qztx
在储存的压力上,未必要保持原图,需要记录的是这张图的特征; 但也这意味着这套模式下需要得到这张图,所以只能针对特定的资源数据进行处理; 是可以做到本地化部署的,在无加速设备上是模型数据处理录入处理速度快慢的区别,在搜索上 Faiss 的性能还不错。 这几天我问过一些从事剪辑师的朋友,这个产品的特性确实能帮助到他们,但是对于他们目前的工作流来说也有一些侵入,如果想要推广到团队中需要进行一些调整。 对于画师的朋友,目前存在这么一个困境,本地的储存的资源真的比 pixiv 更丰富吗?如果我基于 pixiv 作为数据库,为每个用户提供自定义 tag 的功能,是否可以提供更好的图片搜索。在搜索完成后下一步再提供图片的链接。 这里我总结一下,用户的需求分为两种: 1 、期望根据手头上的信息,找到该信息的出处的精准信息,并且提供该信息的站外搜索或者直达链接。 2 、根据想要信息的描述,找到多个符合该信息特征的相关信息。 |
21
lucybenz 2023-06-18 08:57:19 +08:00
@Thiece 个人猜测 有图片素材库的个人和机构都有这个需求。 比如从事内容创作的个人和团队 不过只是猜测 没有数据支撑
|
24
elonmask 2023-06-21 15:53:33 +08:00 via Android
@Thiece 扯什么 paper 啊,我说的是把模型搞到 app 中做搜索。不是在电脑上做,离线单机的 clip 模型没多大,clip text 和 clip visual 量化之后总共才 200M ,我见过有人做了。
|
25
Thiece OP @elonmask
哦明白了,是我误解了,不过和你想的不太一样,我们没有使用完整的 CLIP ,只是使用 CLIP 的 embedding 部分。 包括文字搜索,也只是使用到输出 CLS Token 部分。 CLIP Base 做到 200M 甚至 100M 完全是有可能的。 目前与仅使用 CLIP 落地的项目还是不太一样的。 当然这并不是说我们不能做离线私有化部署,正如上面我对其人的回复中,优先做一个单机的的落地版本我占时还不清楚能够帮助到哪些人。如果在这方面你有更好的建议我们可以深入探讨。 |
26
st2udio 2023-06-22 09:32:37 +08:00
手机上跑 clip 已经有 app 上架了,还是在 V 站上看到的。转成 CoreML 支持的模型也就几百 M ,商可。其他的可能主要是商业用途,比如去年我给我们公司的图片搜索功能换成了 Clip
|
27
74123gzy 2023-07-13 14:47:07 +08:00
不知到,但搜图我肯定会直接想到 tineye ,然后就是谷歌百度啥的,这个我觉得普通人真入局不了
|
28
ldyisbest 2023-12-04 16:39:07 +08:00
有 demo 了吗 体验下
|
29
Thiece OP |