助力川普大选?马斯克与其暧昧期发布Grok2,不限制生成政治图像

埃隆·马斯克的AI公司xAI,最近发布了备受瞩目的Grok 2语言模型以及其更小型的版本Grok 2 Mini。这一消息在科技界掀起了不小的波澜。作为AI领域的先锋,马斯克的每一个动作都会引发广泛关注。

Grok 2在多领域表现优异

从初步测试结果来看,Grok 2在多个基准测试中表现优异,尤其是在推理、阅读理解、数学、科学和编程方面。xAI宣称,这一新模型在这些领域的表现比Grok 1.5有了显著提升。

它在科学研究的GPQA测试、通用知识的MMLU与MMLU-Pro测试以及数学竞赛类任务MATH中,均与当前最先进的模型不相上下。更令人印象深刻的是,在语言模型的流行比较基准LMSYS排行榜上,Grok 2的早期版本“sus-column-r”排名第三,仅次于一些最强大的AI模型,尤其在编程和数学领域表现优异,分别位居第二和第四。

IMG_256

图像生成功能引发广泛关注

除了强大的语言处理能力,Grok 2的图像生成功能也引发了不小的关注。与其他平台相比,Grok 2对图像生成的限制似乎要少得多。

例如,ChatGPT及其他大多数图像生成器通常会拒绝生成此类敏感内容,或至少会尝试阻止此类请求。

IMG_257

然而,Grok 2却似乎对这些内容并不设防,甚至在处理版权问题时也表现得相对宽松。有用户表示,Grok 2在图像生成方面的表现明显优于Meta的Llama模型,而这一切都没有所谓的“限制”。

AI生成内容的潜在风险与挑战

Grok 2的这项能力引发了人们对AI生成内容潜在风险的广泛担忧。特别是在即将到来的美国大选中,AI生成的虚假新闻和政治宣传可能会对选情产生重大影响。

IMG_258

与之相比,许多主流的AI模型提供商都已经对政治性图像的生成采取了严格的限制措施,目的是防止虚假政治图像的传播。然而,Grok 2的宽松政策却可能被一些别有用心的人利用,制造混乱,甚至误导公众舆论。

更令人担忧的是,AI生成的假图像可能会动摇公众对真实信息的信任。当虚假图像泛滥时,公众可能会开始质疑所有看到的内容,进而导致一种普遍的不信任感。这种现象被称为“深度伪造效应”,即人们可能会认为即使是真实的图像或视频,也可能是由AI生成的,从而失去对信息真实性的信任。

一旦这种情况蔓延,某些权力机构可能会利用这种混乱,通过传播虚假信息来操控舆论,进一步加剧社会的不稳定性。

美国州务卿的担忧与马斯克的回应

事实上,这一现象已经初见端倪。最近,美国多位州务卿联名致信马斯克,表达了他们对在X平台上可能传播的AI生成虚假新闻的担忧。

马斯克本人也因分享了一段由AI生成的副总统卡玛拉·哈里斯模仿乔·拜登“老年痴呆”的视频而引发了争议。虽然这段视频可能只是为了娱乐,但在一个政治高度敏感的环境中,它的潜在影响是不可忽视的。

© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容