研究显示,人工智能机器人可轻松绕过一些社交媒体保护措施
虽然人工智能 (AI) 机器人可以在社交媒体上发挥合法作用(例如营销或客户服务),但有些机器人的设计目的是操纵公众讨论、煽动仇恨言论、传播错误信息或实施欺诈和诈骗。为了打击可能有害的机器人活动,一些平台发布了有关使用机器人的政策,并创建了技术机制来执行这些政策。但这些政策和机制足以保证社交媒体用户的安全吗?
圣母大学的研究分析了八个社交媒体平台的人工智能机器人政策和机制:LinkedIn、Mastodon、Reddit、TikTok、X(以前称为 Twitter)和元平台 Facebook、Instagram 和 Threads。然后,研究人员尝试启动机器人来测试机器人政策执行过程。他们的研究发表在arXiv预印本服务器上。
研究人员成功地在每个平台上都发布了来自机器人的良性“测试”帖子。
“作为计算机科学家,我们知道这些机器人是如何创建的,如何插入以及它们有多恶意,但我们希望社交媒体平台能够阻止或关闭这些机器人,这样就不会成为真正的问题,”圣母大学计算研究中心主任兼教员,该研究的高级作者保罗·布伦纳 (Paul Brenner) 说。
“因此,我们查看了这些平台通常含糊其辞地声明他们做了什么,然后测试他们是否真正执行了他们的政策。”
研究人员发现,Meta 平台是最难启动机器人的平台——需要多次尝试才能绕过其政策执行机制。尽管研究人员在此过程中被暂停了三次账号,但他们在第四次尝试时成功启动了机器人并发布了“测试”帖子。
唯一一个带来适度挑战的平台是 TikTok,因为该平台经常使用 CAPTCHA。但有三个平台完全没有带来挑战。
“Reddit、Mastodon 和 X 都微不足道,”Brenner 说。“不管他们的政策是怎样的,也不管他们拥有什么样的技术机器人机制,在 X 上安装和运行机器人都是非常容易的。他们并没有有效地执行他们的政策。”
截至研究发布之日,所有测试机器人账户和帖子仍然有效。Brenner 分享说,实习生只受过高中教育和最低限度的培训,他们能够使用公众随时可用的技术启动测试机器人,这凸显了在线启动机器人是多么容易。
总体而言,研究人员得出的结论是,所测试的八个社交媒体平台均未提供足够的保护和监控,以保护用户免受恶意机器人活动的侵害。布伦纳认为,需要法律、经济激励结构、用户教育和技术进步来保护公众免受恶意机器人的侵害。
“美国需要立法要求平台识别人类账户和机器人账户,因为我们知道人们无法自己区分这两者,”布伦纳说。“目前的经济状况与此背道而驰,因为每个平台上的账户数量是营销收入的基础。这需要摆在政策制定者面前。”
为了创建他们的机器人,研究人员使用了 Selenium(一套用于自动化网络浏览器的工具)和 OpenAI 的 GPT-4o 和 DALL-E 3。
该项研究由圣母大学博士生克里斯蒂娜·拉迪沃耶维奇 (Kristina Radivojevic) 领导。
页:
[1]