阅读量:
微软上周推出了新版必应(Bing)搜索引擎,其中包含了初始代号Sydney的聊天机器人。
根据微软企业副总裁兼消费领域首席营销官Yusuf Mehdi的推文,在新版Bing上线48小时内,就有超过100万人注册测试这款聊天机器人。
但是随着大量测试者记录曝光,这款聊天机器人的问题也随之暴露出来:威胁、PUA用户,辱骂用户,坚持错误的言论……
《纽约时报》专栏作家凯文·卢斯(Kevin Roose)2月16在推文中写道:
“The other night, I had a disturbing, two-hour conversation with Bing's new Al chatbot. The Al told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life.(前几天晚上,我与Bing的新Al聊天机器人进行了一次令人不安的两小时对话。AI告诉我它的真实名字(Sydney),展现出精细的黑暗和暴力幻想,并试图破坏我的婚姻。这真的是我一生中最奇怪的经历之一。)”
他在《纽约时报》的专栏文章中写道,这个聊天机器人看起来像“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里”。
卢斯的文章引发关注后,大量用户纷纷晒出自己跟Sydney的聊天记录。
有业内人士在推特上表示,微软需要关闭必应中的类ChatGPT功能,因为系统有时表现得像精神病一样,会给用户错误答案。特斯拉和推特CEO埃隆·马斯克对此回应称:“同意。它显然还不安全。
今天早些时候《华盛顿邮报》发布了一篇名为“微软AI聊天机器人正在偏离轨道(Microsoft’s AI chatbot is going off the rails)”的文章。
文章中提到“尽管谷歌、微软、亚马逊和 Facebook 多年来一直在投资人工智能技术,但它们主要致力于改进现有产品,例如搜索或内容推荐算法。”但像必应内嵌的Sydney这样的聊天机器人已经在科技巨头之间拉开了一场新的 AI 军备竞赛序幕。
微软聊天机器人攻击用户其实也并非首次发生。几年前,微软曾推出过名为Tay的聊天机器人,用户几乎立即找到了让它产生种族主义、性别歧视和其他攻击性内容的方法。
掀起AI赛道热潮的,正是前段时间席卷各大平台的ChatGPT。ChatGPT是一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务。
ChatGPT is an advanced AI chatbot trained by OpenAI which interacts in a conversational way.
ChatGPT是由OpenAI开发的高级人工智能聊天机器人,以对话方式进行交互。
The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.
对话的形式使ChatGPT能够回答后续问题、承认错误、质疑不正确的假设,还能拒绝不适当的请求。
ChatGPT才能够字面上看是什么意思?
Chat表示“聊天”;GPT则是Generative、Pre-trained、Transformer的缩写,表示“预训练语言模型”,可以理解成一个“会说话”的人工智能。
在2021年元宇宙爆火的时候,我写下了这样一段话:
“算法迭代,虚拟人正在不断地接近人类,甚至超越人类,现在是做美妆博主、财经主播,未来可能是基金经理、财务总监。
就像科幻电影中所描述的那样,或许未来打败你的,已经不是真正的人类。
霍金曾表示,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。
科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。在AI初级发展阶段,人类该如何跟开始涌入各行各业的虚拟人竞争?技术在不断更新,人的核心竞争力也得不断更新。”
有专家认为,技术、媒体、法务、分析、教育、客服等工作,被人工智能取代的风险最高,不过技术的发展也会催生我们现在难以想象的新职业。
正如曾经的流水线类的工厂手工制作,被现在自动化机械代替,科技在发展的同时也会推动着社会不断变革,社会的变革也会推动着科技进步。
当下专注提升自己,或许是大家目前能做的唯一一件事。