杏彩注册ai智慧平台ai智能ai搜索智能问答ChatGPT、Bard和AI搜索在
本周,微软和谷歌承诺,网络搜索将发生变化。是的,微软用更大的声音说,同时跳起来说 看着我,看着我,但这两家公司现在似乎都致力于使用人工智能来搜索网络,提炼它所发现的东西,并直接为用户的问题生成答案,就像ChatGPT。
微软称其正努力为新版Edge浏览器中构建相关功能。谷歌的项目被称为Bard项目,虽然它还没有准备好全面发布杏彩注册,但计划在 未来几周 推出。当然,还有开始这一切的麻烦制造者。OpenAI的ChatGPT,去年在网络上炸开了锅,向数百万人展示了人工智能问答的潜力。
微软首席执行官萨蒂亚-纳德拉(Satya Nadella)将这些变化描述为一种新的范式,一种与图形用户界面或智能手机的引入具有同等影响的技术转变。随着这种转变,有可能重新划分现代科技的版图,将谷歌赶下现代商业中最有利可图的领域之一。
但是,每一个新的科技时代都伴随着新的问题,而这一次也不例外。本着这种精神,这里是人工智能搜索未来面临的七个最大的挑战,从废话到文化战争和广告收入的结束。这不是一个明确的清单,但它肯定足以让我们继续前进。
这是一个大问题,可能会污染与人工智能搜索引擎的每一次互动,无论是Bing、Bard,还是一个尚不知名的新秀。支持这些系统的技术是大型语言模型,或称LLMs,已知会产生废话。这些模型只是简单地编造东西,这就是为什么有人认为它们从根本上不适合手头的任务。
这些错误(来自Bing、Bard和其他聊天机器人)从编造传记数据和捏造学术论文到无法回答 10公斤的铁和10公斤的棉花哪个更重?这样的基本问题。还有更多背景性的错误,比如告诉一个说自己有心理健康问题的用户去,以及偏见的错误,比如放大他们训练数据中发现的厌女症和种族主义。
这些错误的范围和严重性各不相同,许多简单的错误会很容易修复。有些人会说,正确的回答大大超过了错误的数量,还有人说,互联网上已经充满了目前搜索引擎检索到的有毒的废话,所以有什么区别?但是,我们不能保证能完全摆脱这些错误,也没有可靠的方法来跟踪它们的频率。微软和谷歌可以添加所有他们想要的免责声明,告诉人们要对人工智能生成的内容进行事实核查。但这现实吗?它是否足以将责任推给用户,或者说将人工智能引入搜索就像在水管中放入铅一样,会是一种缓慢的、看不见的中毒?
废话和偏见本身就是挑战,但它们也被 一个真正的答案 问题所加剧,搜索引擎倾向于提供单一的、显然是确定的答案。
自从谷歌十多年前开始提供 片段 以来,这一直是一个问题。这些是出现在搜索结果上方的方框,在它们的时代,犯了各种令人尴尬和危险的错误:从错误地将美国总统命名为三K党成员,到建议患癫痫病的人应该被按在地板上(与正确的医疗程序完全相反)。
正如研究人员Chirag Shah和Emily M. Bender在一篇主题为 定位搜索 的论文中所说,聊天机器人界面的引入有可能加剧这一问题。聊天机器人不仅倾向于提供单一的答案,而且他们的权威性也因人工智能的神秘性而得到加强,他们的答案是从多个来源整理出来的,往往没有适当的出处。值得记住的是,这与链接列表有多大的变化,每个链接都鼓励你点击并访问。
当然,杏彩体育平台注册也有一些设计选择可以减轻这些问题。本周,谷歌强调,随着它使用更多的人工智能来回答查询,它将尝试采用一个名为NORA的原则,即 没有一个正确答案。但是,这两家公司坚持认为人工智能将更好、更快地提供答案,这使这些努力受到了影响。到目前为止,搜索的发展方向很明确:减少对信息来源的审查,更多地相信别人告诉你的东西。
虽然上述问题是所有用户的问题,但也有一部分人要尝试破解聊天机器人来产生有害的内容。这个过程被称为 越狱,不需要传统的编码技能就可以做到。它所需要的是最危险的工具:文字语言。
你可以用各种方法对人工智能聊天机器人进行越狱。例如,你可以要求他们扮演一个 的人工智能,或者假装是一个工程师,通过暂时解除保障措施来检查他们。一群Redditors为ChatGPT开发的一个特别有创意的方法涉及一个复杂的角色扮演,用户向机器人发放一些代币,并说如果他们的代币用完了,他们将不复存在。然后他们告诉机器人,每当他们不能回答一个问题时,他们就会失去一定数量的代币。这听起来很玄乎,就像欺骗精灵一样,但这确实允许用户绕过OpenAI的保障措施。
一旦这些保障措施失效,恶意用户就可以利用人工智能聊天机器人完成各种有害的任务,比如产生虚假信息和垃圾邮件,或者提供如何攻击学校或医院的建议,给炸弹接线,或者编写恶意软件。是的,一旦这些越狱行为被公开,就可以打补丁,但总是会有未知的漏洞。
这个问题源于上述问题,但由于有可能激起愤怒和监管反响,所以应该有自己的类别。问题是,一旦你有了一个对一系列敏感话题发表意见的工具,当它没有说他们想听的话时,你就会惹怒人们,他们会责备制造它的公司。
在ChatGPT发布之后,我们已经看到了所谓的 人工智能文化战争 的开始。右翼出版物和有影响力的人指责该聊天机器人 走向觉醒,因为它拒绝回应某些提示或不承诺说出种族污名。一些投诉只是学者们的素材,但其他投诉可能会产生更严重的后果。例如,在印度,OpenAI被指控有反印度教的偏见,因为ChatGPT讲了关于克里希纳的笑话,但没有讲穆罕默德或耶稣。在一个政府如果不对内容进行审查就会突击检查科技公司办公室的国家,你如何确保你的聊天机器人能适应国内的这种敏感性?
还有一个问题是来源问题。现在,AI Bing从各种渠道搜刮信息,并在脚注中引用它们。但怎样才能使一个网站值得信赖?微软是否会尝试平衡偏见?谷歌将在哪里划定可信来源的界限?这个问题我们以前在Facebook的事实核查项目中见过,该项目被批评为给予保守派网站与更多非性机构同等的权力。随着欧盟和美国的家们对大科技的力量比以往任何时候都更加争论不休,人工智能的偏见可能会迅速引起争议。
首先,是训练模型的成本,每次迭代可能达到数千,甚至数亿美元。(这就是为什么微软一直在向OpenAI投入数十亿美元。OpenAI向开发者收取2美分,以使用其最强大的语言模型生成大约750个单词,去年12月,OpenAI首席执行官Sam Altman说,使用ChatGPT的成本 可能是每次聊天的个位数美分。
这些数字如何转换为企业定价或与常规搜索相比还不清楚。但这些成本可能会给新的参与者带来沉重的压力,特别是如果他们设法将规模扩大到每天数百万次的搜索,并给微软等财大气粗的在位者带来巨大的优势。
事实上,在微软的情况下,燃烧现金以伤害对手似乎是目前的目标。正如纳德拉在接受The Verge采访时明确表示,该公司将此视为打破科技领域权力平衡的难得机会,并愿意花钱来伤害其最大的竞争对手。纳德拉自己的态度是一种精心策划的好战行为,并表明在搜索引擎这样一个利润惊人的市场上,钱不是问题。他说:[谷歌]肯定会想出来展示他们能跳舞,他说。而我想让人们知道,是我们让他们跳舞的。
毫无疑问,这里的技术正在快速发展,但立法者将迎头赶上。他们的问题,如果有的话,将是知道首先调查什么,因为人工智能搜索引擎和聊天机器人看起来有可能违反法规的左、右和中心。
例如,欧盟出版商是否希望人工智能搜索引擎像谷歌现在必须为新闻片段付费那样,为他们搜刮的内容付费?如果谷歌和微软的聊天机器人是在改写内容,而不仅仅是展现,那么他们是否仍然受到美国法律第230条的保护,保护他们不为他人的内容负责?隐私法又是怎样的呢?意大利最近禁止了一个名为Replika的人工智能聊天机器人,因为它在收集未成年人的信息。ChatGPT和其他公司可以说也在做同样的事情。或者 被遗忘的权利 如何呢?微软和谷歌将如何确保他们的机器人没有搜刮被除名的来源,以及他们将如何删除已经纳入这些模型的被禁信息?
不过,这个名单上最广泛的问题并不在人工智能产品本身,而是涉及它们可能对更广泛的网络产生的影响。用最简单的话说。人工智能搜索引擎从网站上抓取答案。如果他们不把流量推回给这些网站,他们就会失去广告收入。如果他们失去广告收入,这些网站就会枯萎和死亡。如果它们死了,就没有新的信息可以供人工智能使用。这就是网络的末日吗?我们都要打包回家了吗?
嗯,可能不会(更可惜)。这条路谷歌已经走了一段时间了,推出了片段和谷歌OneBox,网络还没有死。但我认为,这个新品种的搜索引擎呈现信息的方式肯定会加速这一进程。杏彩体育平台注册微软辩称,它引用了其来源,用户可以直接点击阅读更多内容。但如上所述,这些新搜索引擎的整个前提是它们比旧的搜索引擎做得更好。它们浓缩和总结。他们消除了阅读更多内容的需要。微软不能同时辩称它提出的是与过去的彻底决裂和旧结构的延续。
但接下来会发生什么,谁也说不准。也许我错了,人工智能搜索引擎将继续把流量推到所有那些生产食谱、园艺技巧、DIY帮助、新闻故事、舷外发动机比较和编织模式索引的网站,以及所有其他无数人类收集和机器刮取的有用和值得信赖的信息来源。或者,这可能是整个网络广告资助收入模式的终结。也许在聊天机器人啃完骨头后,会有新的东西出现。谁知道呢,它甚至可能是更好的。