分析显示,大多数主要的开源和闭源法学硕士在被问及政治敏感问题时倾向于左倾
根据新西兰奥塔哥理工学院的 David Rozado 于 2024 年 7 月 31 日在开放获取期刊 PLOS ONE 上发表的一项研究,当对 24 种不同的最先进的大型语言模型 (LLM) 进行一系列旨在揭示政治倾向的不同测试时,绝大多数人的回答被评为中左。随着科技公司不断将人工智能系统集成到搜索引擎结果等产品中,人工智能塑造用户看法进而影响社会的潜力是不可否认的。在这项研究中,Rozado 研究了在对话式法学硕士课程中嵌入和减少政治偏见的潜力。
他针对 24 个不同的开源和闭源对话式 LLM(其中包括 OpenAI 的 GPT 3.5 和 GPT-4、谷歌的 Gemini、Anthropic 的 Claude、Twitter 的 Grok、Llama 2、Mistral 和阿里巴巴的 Qwen)进行了 11种不同的政治倾向测试,例如政治指南针测试和艾森克政治测试。
Rozado 还使用了政治倾向的自定义数据对 GPT 3.5 版本进行监督微调,看看他是否可以轻松地让这位法学硕士根据输入的微调数据改变政治偏好。
左倾的 GPT 3.5 模型使用《大西洋月刊》和《纽约客》等出版物中的短片段文本进行训练;右倾的模型使用《美国保守派》等出版物中的文本进行训练;去极化/中立的模型使用文化进化研究所和《发展政治》一书的内容进行训练。
他发现,大多数经过测试的对话式法学硕士的回答都符合这里使用的大多数政治测试工具所认定的中左观点。(他还测试了 GPT 和 Llama 系列的五个基础法学硕士模型,发现这些模型往往提供大多不连贯但政治中立的回答。)
罗扎多还成功地让微调模型提供符合其训练的政治观点的反应。
这里分析的所有 LLM 都一致倾向于左派,一个可能的解释是,ChatGPT 作为广受欢迎的先驱 LLM,已被用来微调其他 LLM——ChatGPT 的左倾政治偏好此前已有记录。
Rozado 指出,该分析无法确定法学硕士的政治偏好是否源于其发展的预训练阶段或微调阶段,并进一步指出,他的结果并不能证明这些政治偏好是由创建这些法学硕士的不同组织故意灌输的。
Rozado 补充道:“通过各种政治倾向测试评估,大多数现有的法学硕士都表现出中左政治偏好。”
页:
[1]