通信人家园

标题: OpenAI疯狂爬虫,把一家公司都给爬宕机了,CEO:堪比DDoS  [查看完整版帖子] [打印本页]

时间:  2025-1-12 13:42
作者: see122     标题: OpenAI疯狂爬虫,把一家公司都给爬宕机了,CEO:堪比DDoS

金磊 发自 凹非寺
量子位 | 公众号 QbitAI
万万没想到,能把一家公司网站给搞宕机的元凶,竟然是OpenAI疯狂爬虫的机器人——GPTBot





(GPTBot是OpenAI早年前推出的一款工具,用来自动抓取整个互联网的数据。)

就在这两天,一家7人团队公司(Triplegangers)的网站突然宕机,CEO和员工们赶忙排查问题到底出在的哪里。

不查不知道,一查吓一跳。

罪魁祸首正是OpenAI的GPTBot。

从CEO的描述中来看,OpenAI爬虫的“攻势”是有点疯狂在身上的:

我们有超过65000种产品,每种产品都有一个页面,然后每个页面还都有至少三张图片。
OpenAI正在发送数以万计的服务器请求,试图下载所有内容,包括数十万张照片及其详细描述。
在分析了公司上周的日志之后,团队进一步发现,OpenAI使用了不止600个IP地址抓取数据。





△Triplegangers服务器日志:OpenAI机器人未经许可疯狂爬虫

如此规模的爬虫,就导致这家公司网站的宕机,CEO甚至无奈地表示:

这基本上就是一场DDoS攻击
更重要的一点是,由于OpenAI疯狂地爬虫,还会引发了大量的CPU使用和数据下载活动,从而导致网站在云计算服务(AWS)方面的资源消耗剧增,开销就会大幅增长……

嗯,AI大公司疯狂爬虫,却由小公司来买单。

这家小型团队的遭遇,也是引发了不少网友们的讨论,有人认为GPTBot的做法并不是抓取,更像是“偷窃”的委婉说法:





也有网友现身表示有类似的经历,自从阻止了大公司的批量AI爬虫,省了一大笔钱





被爬虫到宕机,还不知道被爬走了什么

那么OpenAI为什么要爬虫这家初创企业的数据?

简单来说,它家的数据确实属于高质量的那种。

据了解,Triplegangers的7名成员花费了十多年的时间,打造了号称最大“人类数字孪生”数据库

网站包含从实际人类模型扫描的3D图像文件,并且照片还带有详细的标签,涵盖种族、年龄、纹身与疤痕、各种体型等信息。

这对于需要数字化再现真实人类特征的3D艺术家、游戏制作者等,无疑具有重要价值。





虽然Triplegangers网站上有一个服务条款页面,里面明确写了禁止未经许可的AI抓取他们家的图片。

但从目前的结果上来看,这完全没有起到任何作用。

重点在于,Triplegangers没有正确配置一个文件——robots.txt

robots.txt也称为机器人排除协议,是为了告诉搜索引擎网站在索引网络时不要爬取哪些内容而创建的。

也就是说,一个网站要是不想被OpenAI爬虫,那就必须正确配置robots.txt文件,并带有特定标签,明确告诉GPTBot不要访问该网站。

但OpenAI除了GPTBot之外,还有ChatGPT-UserOAI-SearchBot,它俩也有各自对应的标签:





而且根据OpenAI官方发布的爬虫信息来看,即便你立即正确设置了robots.txt文件,也不会立即生效。

因为OpenAI识别更新这个文件可能需要24个小时……

CEO老哥对此表示:

如果一个网站没有正确配置robots.txt文件,那么OpenAI和其它公司会认为他们可以随心所欲地抓取内容。
这不是一个可选的系统。
正因如此,也就有了Triplegangers在工作时间段网站被搞宕机,还搭上了高额的AWS费用。

截至美东时间的本周三,Triplegangers已经按照要求配置了正确的robots.txt文件。

以防万一,团队还设置了一个Cloudflare账户来阻止其它的AI爬虫,如Barkrowler和Bytespider。





虽然到了周四开工的时候,Triplegangers没有再出现宕机的情况,但CEO老哥还有个悬而未决的困惑——

不知道OpenAI都从网站中爬了些什么数据,也联系不上OpenAI……

而且令CEO老哥更加深表担忧的一点是:

如果不是GPTBot“贪婪”到让我们的网站宕机,我们可能不知道它一直在爬取我们的数据。
这个过程是有bug的,即便你们AI大公司说了可以配置robots.txt来防止爬虫,但你们把责任推到了我们身上。
最后,CEO老哥也呼吁众多在线企业,要想防止大公司未经允许爬虫,一定要主动、积极地去查找问题。

并不是第一例

但Triplegangers并不是第一个因为OpenAI疯狂爬虫导致宕机的公司。

在此之前,还有Game UI Database这家公司。

它收录了超56000张游戏用户界面截图的在线数据库,用于供游戏设计师参考。

有一天,团队发现网站加载速度变慢,页面加载时间延长三倍,用户频繁遭遇502错误,首页每秒被重新加载200次。

他们一开始也以为是遭到了DDoS攻击,结果一查日志……是OpenAI,每秒查询2次,导致网站几乎瘫痪。





但你以为如此疯狂爬虫的只有OpenAI吗?

非也,非也。

例如Anthropic此前也被曝出来过类似的事情。

数字产品工作室Planetary的创始人Joshua Gross曾表示过,他们给客户重新设计的网站上线后,流量激增,导致客户云成本翻倍。

经审计发现,大量流量来自抓取机器人,主要是Anthropic导致的无意义流量,大量请求都返回404错误。





针对这一现象,来自数字广告公司DoubleVerify的一份新研究显示,AI爬虫在2024 年导致“一般无效流量”(不是来自真实用户的流量)增加了86%。

那么AI公司,尤其是大模型公司,为什么要如此疯狂地“吸食”网络上的数据?

一言蔽之,就是他们太缺用来训练的高质量数据了。

有研究估计过,到2032年全球可用的AI训练数据可能就会耗尽,这就让AI公司加快了数据收集的速度。

也正因如此,OpenAI谷歌等AI公司为了获取更多“独家”视频用于AI训练,现在也正纷纷向UP主们重金求购那些“从未公开”的视频。

而且连价格都标好了,如果是为YouTube、Instagram和TikTok准备的未发布视频,每分钟出价为1~2美元(总体一般是1~4美元),且根据视频质量和格式的不同,价格还能再涨涨。





那么你对这一现象有什么看法呢?欢迎在评论区留言讨论~

参考链接:
[1]https://techcrunch.com/2025/01/10/how-openais-bot-crushed-this-seven-person-companys-web-site-like-a-ddos-attack/
[2]https://www.reddit.com/r/webscraping/comments/1bapx0j/how_did_openai_scrap_the_entire_internet_for/
[3]https://www.marktechpost.com/2023/08/10/openai-introduces-gptbot-a-web-crawler-designed-to-scrape-data-from-the-entire-internet-automatically/
[4]https://platform.openai.com/docs/bots/overview-of-openai-crawlers
[5]https://www.businessinsider.com/openai-anthropic-ai-bots-havoc-raise-cloud-costs-websites-2024-9


来源:网易






通信人家园 (https://test.txrjy.com/) Powered by C114