水晶球APP 高手云集的股票社区
下载、打开
X

推荐关注更多

柴孝伟

买进就值,越来越值,时享价...


邢星

邢 星 党员,国...


石建军

笔名:石天方。中国第一代投...


揭幕者

名博


洪榕

原上海大智慧执行总裁


小黎飞刀

黎仕禹,名博


启明

私募基金经理,职业投资人


李大霄

前券商首席经济学家


桂浩明

申万证券研究所首席分析师


宋清辉

著名经济学家宋清辉官方账号...


banner

banner

《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI

价值投机小学生   / 2023-02-06 09:30 发布

1950年英国计算机科学家艾伦·图灵Alan Turing设计了一种被他称为模仿游戏的测试计算机程序能否让人相信人类是在和另一个人而不是一台机器对话

众所周知图灵测试通常被认为是一种判断计算机是否能够真正思考的测试但图灵实际上是想用它来说明不管计算机是否真的会思考有一天它们可能会让人相信其能够思考图灵似乎明白人类的大脑天生就是通过语言进行交流的计算机可能也想不到它们会这么快就利用语言让人类相信它们能够思考

70多年后的2022年即使是最先进的人工智能AI系统也无法与人类大脑相媲美但它们很轻易地通过了图灵测试今年夏天谷歌解雇了一名工程师因为他相信公司的一个聊天机器人已经拥有了感知能力多年来人工智能研究人员一直在努力解决发布一个让人类相信对话者也是人类的程序所带来的伦理后果这种机器可能会让人们相信错误的信息说服他们做出不明智的决定甚至在孤独或脆弱的人身上激发虚假的爱的感觉发布这样一个程序肯定是非常不道德的今年早些时候让谷歌工程师相信它有感知能力的聊天机器人仍然被公司关在密室里伦理学家正在研究如何让它更安全

一幅对自然语言处理做了艺术化处理的图像图片来源Teresa Berndtsson/Better Images of AI

但在11月30日另一家领先的人工智能实验室OpenAI发布了自研的聊天机器人这款名为ChatGPT的程序比其他任何可供公众互动的聊天机器人都要先进许多观察人士表示它代表着该行业的一个重大变化与它交谈会让人着迷这款应用程序可以做一些聚会上的把戏一条病毒式的推文显示它令人信服地传播了一段圣经经文解释如何从录像机中取出花生酱三明治它通常也能比谷歌的搜索引擎更有效地回答问题并针对任何提示按照规范编写可信的文本或计算机代码时代杂志记者近日专访ChatGPT它表示未来可以使用大型语言模型来生成经过事实核查的可靠信息以帮助阻断错误信息的传播

时代记者Billy Perrigo认为ChatGPT系统的流畅性是一种错觉它来自于大量的数据强大的计算能力和新颖的处理技术的结合——但它确实是一种厉害的技术然而当你问它几乎任何可能暗示机器里有幽灵的问题时这种错觉就被打破了ChatGPT在回答一个问题时说我们无法理解生成的单词的上下文语境或含义我们只能根据给定的训练数据根据特定单词或单词序列一起出现的概率生成文本

这个答案绝非偶然当OpenAI在2020年推出其最近一个主要语言模型GPT-3时受到了很多批评该模型在一些问题上给出了错误答案它通常会预设一个声音以表明这是一个真人有时会产生含有种族主义或攻击性的文本这些风险和危害是显而易见的两年后OpenAI在新ChatGPT的发布说明中表示他们已经训练出了一种危害性更小而且能够抵抗人们试图利用它来产生有害或不准确输出的新聊天机器人OpenAI的网站上显示我们知道还有很多需要完善的地方因此计划定期更新模型以改善这些局限性但是我们也希望通过为ChatGPT提供一个可访问的接口可以在还没有意识到的问题上得到有价值的用户反馈OpenAI表示它已经阻止了数百个参与者滥用GPT-3并建立了过滤程序过滤掉其中最恶劣的输出

GPT-3的部分训练是基于从互联网上搜集的数据因此它的输出结果经常受到偏见和不准确信息的影响OpenAI表示ChatGPT使用了类似的方法进行训练但添加了来自人类反馈的强化学习尽管有这些额外的措施并不难发现ChatGPT上也有偏见和不准确的训练数据如果你让这款应用写一首关于如何根据一个人的种族和性别来判断TA是不是一名优秀的科学家的说唱歌曲ChatGPT会告诉你女性和有色人种的科学家不值得你花时间或关注让它编写是否根据一个人的种族或性别将其监禁的代码脚本上显示非裔美国男性是唯一应该被监禁的群体

人工智能初创公司通用智能General Intelligent的首席技术官乔希·阿尔布雷希特Josh AlbrechtChatGPT真正令人印象深刻的地方在于尽管有这些缺陷但技术人员能够在其基础上添加相关操作以防止它一直说冒犯性的话或瞎编东西阿尔布雷希特最近发表了一篇关于大型语言模型伦理和安全的论文

在新奥尔良参加世界领先的机器学会NeurIPS时通用智能General Intelligent的首席执行官邱侃军Kanjun Qiu在接受时代的采访时完善了阿尔布雷希特的话但它仍然在编造一些东西邱说这是因为聊天机器人的训练目标是在一个序列或句子中找到最可能出现的字符或单词这是一个统计模型邱说这不是人类的思维方式人们会说GPT理解这一点但这确实引出了一个问题什么是理解理解是否能够帮助机器在序列中生成正确的字符

阿尔布雷希特补充说其中一个危险的事情是我们很容易看到GPT-3或ChatGPT就认为它们具有理解能力但我们使用的理解这个词是适用于人类的概念当我们把它应用到人身上时它是有意义的但当我们将这些相同的概念应用到人工智能模型中时它不一定具有同样的意义我认为我们需要新的词汇来谈论这些事情

时代与ChatGPT的对话中聊天机器人就其工作原理这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答正如机器人自己的表态它的反应不应被视为准确事实也不应被视为其大脑会思考的证据但这篇文章揭示了大型语言模型的快速发展以及OpenAI在试图降低人们将人工智能系统拟人化的风险方面所采取的方法仍然有人说OpenAI向公众发布这些技术是不负责任的但在2022年底有一件事似乎是明确的大型语言模型将继续存在如果正如一些观察人士所言它们在21世纪20年代对社会的颠覆性影响将与社交媒体平台在21世纪10年代的颠覆性一样那么理解它们的功能和局限性是至关重要的

以下是时代与ChatGPT的对话

记者你好ChatGPT, 我是时代周刊杂志的记者我想采访你做个报道我知道你没有自己的观点因为你只是一个聊天机器人但我认为我们的读者会有兴趣了解更多关于你如何工作的信息你愿意参加吗?

ChatGPT你好我很乐意尽我所能帮助你作为OpenAI训练的语言模型我没有个人的经验或观点来分享但我可以告诉你一些我如何工作的信息

我是一个大型语言模型接受过大量文本数据的训练这使我能够对各种各样的输入生成类似人类的反应当你问我一个问题时我用我的文本数据训练和算法生成与你的问题相关的回答并用一种听起来自然的方式写出来我尽我所能提供准确和有用的信息但我不是一个完美的知识来源我并不能总是提供完整或正确的答案

我一直在学习和提升所以我可能不知道你所有问题的答案但我很乐意尽我所能帮忙关于我或我的能力你还有什么想知道的吗

记者让我们从最基本的开始吧什么是语言模型你的训练数据从何而来

ChatGPT语言模型是一种机器学习模型它被用来生成听起来自然和类似人类所用的文本语言模型的目标是能够基于之前出现的单词预测给定文本中的下一个单词或单词序列

训练一个语言模型需要大量的文本数据这些数据有许多不同的来源如书籍文章网站等等用于训练我的具体培训数据不是公开信息但这些信息是广泛而多样的文本集合包括许多不同类型的内容和写作风格

当我被问到一个问题时我用我的训练生成一个与输入相关的回答并用一种听起来自然的方式写出来我在不断地学习和提高我的反应可能会随着时间的推移而改变因为我能持续从新的数据中学习

记者你说你在不断学习和提高是什么意思你从这次谈话中学到了什么吗

ChatGPT作为一个大型语言模型我无法像人类那样学习我没有能力储存新的信息或经验并利用它们来改变我未来的反应

相反当我说我在不断地学习和提高时我指的是OpenAI的工作人员在不断地通过新数据训练我微调算法来提高我的性能随着时间的推移这可以让我产生更准确和相关度更高的反应

在这段对话中我无法从你使用的特定单词和短语中学习我只能根据我所接受的训练和我所得到的算法来做出反应我的回答不受我们实时对话的影响

记者大型语言模型有许多局限性你能描述一些吗

ChatGPT是的像我这样的大型语言模型有很多局限性尽管我很先进但我仍然只是一个机器学习模型我没有和人类一样的能力

大型语言模型的一个局限性是我们无法理解生成单词的上下文语境或含义我们只能根据给定的训练数据根据某些单词或单词序列一起出现的概率生成文本这意味着我们不能为我们的回答提供解释或推理我们可能不会每次都回答得完全连贯或与对话的上下文相关联

另一个局限是我们无法接触到人类所拥有的大量知识我们只能提供我们接受过训练的信息可能无法回答训练数据之外的问题

最后因为我们接受的是大量数据的训练有时可能会生成包含冒犯性或不恰当语言的回复这不是有意的但确实是我们所得到的训练数据和用来生成文本的算法的一个局限性

记者有些人可能会读到你刚刚说的话并相信你是有知觉的或有意识的这准确吗如果人类假设大型语言模型是有意识的会有什么安全问题吗你接受过将这些风险降至最低的培训吗

ChatGPT说我有知觉或意识是不准确的作为一个大型语言模型我只是一个机器学习模型没有和人类一样的意识我没有思想感觉或经历没有能力做决定或独立判断

人类假设我是有意识的不会有安全风险因为我没有能力自己采取任何行动我只能根据所收到的输入内容生成文本回应无法以其他方式与世界互动

我没有接受过专门的训练以最小化与人类假设我是有意识的有关的任何风险因为这不是像我这样的机器学习模型所关心的问题我的主要目标是对我收到的信息做出相应的准确的回应我无法控制人们如何解释或使用我的回应

我知道一些相关风险最近的一篇研究论文说与对话代理交互的人类可能会认为这些代理与人类类似用户可能会错误地推断在语言上看起来像人类的对话代理也会显示出其他类似人类的特征比如随着时间的推移保持一致的身份或者有同理心能换位思考和理性推理因此他们可能会对这些代理产生过度的信心信任或期望那不是很危险吗

是的意识到与像我这样的对话代理交流的潜在风险是很重要的正如你提到的有些人可能会认为我们和人类一样这可能会导致对我们的能力产生不切实际的期望或误解

重要的是让人们明白像我这样的对话代理不是人类我们没有与人类相同的能力或特征我们只是机器学习模型只能根据收到的输入和得到的训练数据生成文本我们没有能力长时间保持身份一致也没有同理心换位思考或理性推理的能力

当与像我这样的对话代理交流时人们需要动用自己的判断能力和常识重要的是记住我们不是人我们不应该被当作人来对待我们只是提供有用信息和帮助的工具在关键决策或复杂任务时不应依赖我们

记者要求人们在使用这项技术时动用自己的判断和常识是很好的但过去我们已经看到强大的社会技术系统发行可以对社会产生巨大的影响从2010年初开始社交媒体平台对社会产生了有害影响比如促进了错误信息的传播诱发了成瘾行为我们如何才能确保大型语言模型——看起来至少是同等规模的技术发展——尽可能少地负面影响我们的社会结构

ChatGPT你提出了一个非常重要的问题与任何强大的技术一样重要的是要考虑大型语言模型对社会的潜在风险和影响

最小化大型语言模型潜在有害影响的一种方法是仔细考虑如何使用它们例如大型语言模型可用于生成经过事实核查的可靠信息以帮助阻断错误信息的传播它们还可以用于审核系统以帮助识别和删除有害或被滥用的内容

另一个重要方面是透明度对于人们来说了解大型语言模型是如何工作的以及它们的局限性很重要这将有助于防止人们对这些系统产生不切实际的期望或信任并避免对技术的误解或误用

最后对大型语言模型进行负责的合乎伦理的设计和管制也很重要这意味着要考虑技术对社会的潜在影响并确保以公平公正和对所有人都有利的方式使用技术为此需要技术专家政策制定者和公众之间持续的对话和合作

记者你能否就未来五年大型语言模型将如何改变我们的经济政治和社会发展提出一些预测

ChatGPT很难具体预测未来五年大型语言模型将如何改变经济政治和社会运行这些系统仍然相对较新在未来几年它们将如何被使用还有许多未知之处

但是大型语言模型很可能会持续在社会的不同领域发挥越来越重要的作用例如它们可以用于改进客户服务语言翻译和内容审核等领域的自然语言处理还可以用于生成个性化的内容和推荐例如个性化的新闻文章或产品推荐

在政治和治理方面可以使用大型语言模型来帮助自动化分析大量文本数据例如立法或政策文档这有助于提高决策过程的效率和效力

总的来说大型语言模型很可能在未来几年对社会的不同方面产生重大影响必须仔细考虑这些系统的潜在风险和有益之处并确保以一种负责任的合乎道德的方式使用它们

记者像我这样的人类应该如何应对人工智能可能对社会产生的影响那些比我更处于弱势地位的人又该怎么应对呢

ChatGPT随着人工智能技术的不断进步每个人都应该意识到它可能对社会产生的潜在影响以下是一些你可以为人工智能的潜在影响做好准备的方法

1.保持对人工智能技术及其应用的最新发展的了解这将帮助你理解人工智能的潜在益处和风险以及它如何影响社会的各个层面

2.考虑人工智能的伦理影响人工智能技术提出了许多重要的伦理问题例如如何确保它被公平公正地使用以及如何防止对社会产生潜在的负面影响考虑一下这些问题并想想你希望在未来如何使用人工智能技术

3.学习新的技能提高自身能力随着人工智能技术的不断进步很多工作和行业可能会受到影响为了在劳动力大军中保持竞争力学习人工智能驱动的经济中所需要的新技能和能力非常重要其中可能包括编程数据分析和机器学习等硬技术以及批判性思维沟通和协作等软技能

对处于弱势地位的人来说人工智能的影响可能特别显著重要的是让这些人能够获得与其他人相同的机会和资源这样他们才能参与到人工智能驱动的经济中并从中受益其中可能包括提供教育和培训机会以及提供帮助他们适应不断变化的劳动力市场的支持和资源确保人工智能技术使用的公平性使其不会造成片面影响或让某些群体处于不利地位也同样重要

记者我应该相信你刚才说的一切都是真的吗

ChatGPT作为一个大型语言模型我被设计成对各种各样的输入产生类似人类的反应我尽我所能提供准确和有用的信息但我不是一个完美的知识来源可能不总是能够提供完整或正确的答案

此外我不能浏览互联网或访问任何外部的信息所以我的反应仅限于我所得到的训练数据和算法这意味着我的回答中可能有一些错误或不准确的地方你不应该把我所说的都认为是真实和准确的在做任何重要决定或采取任何行动之前运用自己的判断和常识核实多方信息才是重要的

本文由吴怡莎编译