人工智能抢活儿,机器写作能替代真人创作吗

分享到:

虽然写作涉及的知识技能复杂,只能靠口传心授,很难机械化运作。

不过,当手机上的输入法时常提示人们想要打出的下一个词汇时,或许离把写专栏交给人工智能的那一天已经不远了。

编辑会被人工智能抢活儿吗?假使有一台全知全能的机器,可以提点一个平庸的编辑怎样给专栏开个好头,敲打一下迟钝写手的生锈头颅,从而迸射出若干束创作巧思,相信不少文字耕耘者甚至会祈祷此事成真——虽然要接受一种被机器碾压的惨淡。

但写作是一门玄乎的手艺,其涉及的知识技能复杂,只能靠口传心授,很难机械化运作,就像说相声或是吹糖人儿。

很多写手认为,被计算机逼下岗的故事似乎永远不可能发生。不过,当手机上的输入法时常猜出人们心中想要打出的下一个词汇时,或许离把写专栏交给人工智能的那一天已经不远了。

无需过多训练就能创作散文

去年7月,位于旧金山的人工智能研究实验室OpenAI开始有限制地开放一款非常厉害的软件——GPT-3。这是OpenAI迄今为止创建的最强大的“语言模型”。

所谓“语言模型”,是指经过大量文本训练的人工智能系统。有了足够的文本和处理能力,它就会开始学习词汇之间的概率性联系。更简单地说,GPT-3可读可写,且水平不低。

像GPT-3这样的软件或许会非常有用。当机器能够以人类的语言来理解和回应人类,我们就可以获得一名数字助手、一个更逼真的游戏角色、一位为学生度身定制的虚拟老师,甚至只需将你的想法告诉机器,就可以创建一款软件。

不过,目前OpenAI仅向数百名软件开发人员提供GPT-3的访问权限。有人在推特上展示了GPT-3的许多奇妙功能。

语言模型通常需要针对专门用途进行特定训练,但GPT-3是个例外,它无需过多额外训练,就能生产出独创性的、连贯的、有时甚至是事实性的散文。除了散文,它还会写诗句、对白、计算机代码等等。

比如说,我们给GPT-3一个自然语言提示“我特此辞退刘看山先生”,软件将在余下的文本中填充进高度接近人类在接收到此类文字后可能想到的话语。

GPT-3的灵活性是一个关键的进步。OthersideAI公司的CEO马特·舒默正在利用GPT-3建立一种智能电子邮件服务:机器会替你写电子邮件,你只需录入一些需要表达的要点,它就可以据此创建一封完整、细致、礼貌的回信。

另一家公司则借助GPT-3在文本冒险游戏中构建逼真的交互式角色。他们发现,GPT-3创造的文本如行云流水般连贯,极具想象力,甚至还透着荒谬的趣味。

作家斯图·福蒂尔用GPT-3创作了一个滑稽的讽刺作品。他给软件输入了一个奇怪的提示:“下面是一段访谈的部分笔录。在访谈中,巴拉克解释了他为何被终身禁入金坷垃自助餐厅。”接着,GPT-3以此为核心思路,填充了采访的其余部分。

谨慎预防滥用带来的欺诈行为

然而,像GPT-3这样的软件存在令人恐惧的滥用隐患。

如果计算机能产生大量仿佛出自人类手笔的文本,我们该如何区分人和机器?在一份详细介绍GPT-3功能的研究论文中,作者列举了一系列潜在危险,包括虚假信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、学术不端,以及其他欺诈行为。

另一方面,由于GPT-3的训练素材来自网络,所以它制造的文本可能存在许多社会偏见。如何确保它的内容不带有偏见和歧视,也是一个重要问题。

此外,GPT-3并不擅长分辨虚构和事实。AI研究者珍妮尔·沙恩说,她把自己原创的三个关于鲸鱼的句子丢给了GPT-3,结果它填充了一堆“独立创作”的文本——可那些话全都狗屁不通,一点儿不符合鲸鱼的客观事实。

值得一提的是,对于这些隐患,OpenAI已在采取预防措施。

目前,该公司仅允许少数人使用此系统,也正在对每个基于GPT-3的应用程序进行审核。尤其重要的是,他们禁止GPT-3冒充人类,即由GPT-3生产出的所有文字,都必须让阅读者知道该内容是由机器编写的。

与此同时,OpenAI还邀请外部研究人员来对系统偏差进行校正。目前,这些预防措施看起来可能足够了。但GPT-3模仿人类语言的水准之高,还是让不少文字工作者感觉后背发凉。或许不久之后,它真的会让许多写手无所事事。

虽然写作涉及的知识技能复杂,只能靠口传心授,很难机械化运作。

不过,当手机上的输入法时常提示人们想要打出的下一个词汇时,或许离把写专栏交给人工智能的那一天已经不远了。

编辑会被人工智能抢活儿吗?假使有一台全知全能的机器,可以提点一个平庸的编辑怎样给专栏开个好头,敲打一下迟钝写手的生锈头颅,从而迸射出若干束创作巧思,相信不少文字耕耘者甚至会祈祷此事成真——虽然要接受一种被机器碾压的惨淡。

但写作是一门玄乎的手艺,其涉及的知识技能复杂,只能靠口传心授,很难机械化运作,就像说相声或是吹糖人儿。

很多写手认为,被计算机逼下岗的故事似乎永远不可能发生。不过,当手机上的输入法时常猜出人们心中想要打出的下一个词汇时,或许离把写专栏交给人工智能的那一天已经不远了。

无需过多训练就能创作散文

去年7月,位于旧金山的人工智能研究实验室OpenAI开始有限制地开放一款非常厉害的软件——GPT-3。这是OpenAI迄今为止创建的最强大的“语言模型”。

所谓“语言模型”,是指经过大量文本训练的人工智能系统。有了足够的文本和处理能力,它就会开始学习词汇之间的概率性联系。更简单地说,GPT-3可读可写,且水平不低。

像GPT-3这样的软件或许会非常有用。当机器能够以人类的语言来理解和回应人类,我们就可以获得一名数字助手、一个更逼真的游戏角色、一位为学生度身定制的虚拟老师,甚至只需将你的想法告诉机器,就可以创建一款软件。

不过,目前OpenAI仅向数百名软件开发人员提供GPT-3的访问权限。有人在推特上展示了GPT-3的许多奇妙功能。

语言模型通常需要针对专门用途进行特定训练,但GPT-3是个例外,它无需过多额外训练,就能生产出独创性的、连贯的、有时甚至是事实性的散文。除了散文,它还会写诗句、对白、计算机代码等等。

比如说,我们给GPT-3一个自然语言提示“我特此辞退刘看山先生”,软件将在余下的文本中填充进高度接近人类在接收到此类文字后可能想到的话语。

GPT-3的灵活性是一个关键的进步。OthersideAI公司的CEO马特·舒默正在利用GPT-3建立一种智能电子邮件服务:机器会替你写电子邮件,你只需录入一些需要表达的要点,它就可以据此创建一封完整、细致、礼貌的回信。

另一家公司则借助GPT-3在文本冒险游戏中构建逼真的交互式角色。他们发现,GPT-3创造的文本如行云流水般连贯,极具想象力,甚至还透着荒谬的趣味。

作家斯图·福蒂尔用GPT-3创作了一个滑稽的讽刺作品。他给软件输入了一个奇怪的提示:“下面是一段访谈的部分笔录。在访谈中,巴拉克解释了他为何被终身禁入金坷垃自助餐厅。”接着,GPT-3以此为核心思路,填充了采访的其余部分。

谨慎预防滥用带来的欺诈行为

然而,像GPT-3这样的软件存在令人恐惧的滥用隐患。

如果计算机能产生大量仿佛出自人类手笔的文本,我们该如何区分人和机器?在一份详细介绍GPT-3功能的研究论文中,作者列举了一系列潜在危险,包括虚假信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、学术不端,以及其他欺诈行为。

另一方面,由于GPT-3的训练素材来自网络,所以它制造的文本可能存在许多社会偏见。如何确保它的内容不带有偏见和歧视,也是一个重要问题。

此外,GPT-3并不擅长分辨虚构和事实。AI研究者珍妮尔·沙恩说,她把自己原创的三个关于鲸鱼的句子丢给了GPT-3,结果它填充了一堆“独立创作”的文本——可那些话全都狗屁不通,一点儿不符合鲸鱼的客观事实。

值得一提的是,对于这些隐患,OpenAI已在采取预防措施。

目前,该公司仅允许少数人使用此系统,也正在对每个基于GPT-3的应用程序进行审核。尤其重要的是,他们禁止GPT-3冒充人类,即由GPT-3生产出的所有文字,都必须让阅读者知道该内容是由机器编写的。

与此同时,OpenAI还邀请外部研究人员来对系统偏差进行校正。目前,这些预防措施看起来可能足够了。但GPT-3模仿人类语言的水准之高,还是让不少文字工作者感觉后背发凉。或许不久之后,它真的会让许多写手无所事事。

继续阅读
人工智能抢活儿,机器写作能替代真人创作吗

虽然写作涉及的知识技能复杂,只能靠口传心授,很难机械化运作。

人工智能,从转变认识开始

人工智能是通过计算机程序来呈现人类智能的技术,亦称为机器智能。通过智能系统正确的解释环境输入,结合专家经验和机理知识,利用机器学习技术能够灵活的实现特定应用场景下的目标和任务,是我们期待人工智能应有的能力,即拥有和人类一样的推理、规划、感知、学习、交流、使用工具、决策、判断能力和思维模式。

华为机器视觉“好望”基本完成产业闭环

什么是机器视觉?机器视觉是一项综合性极强的高新技术,其中涵盖了图像摄取及处理、控制、模拟与数字视频技术、计算机软硬件技术等。简而言之,机器视觉就是通过人工智能系统操纵机器来替代人眼进行测量和判断。

电子皮肤盘点!让机器也能拥有触觉?

电子皮肤大家听说过吗?其实这是一个很有前景的领域,一来它可以应用于医疗领域,帮助安装假肢的群体回复对外界的感知能力;二来,电子皮肤也可以应用到机器人研发中,甚至可能让机器人面对疼痛做出反应。那么,如今电子皮肤的研究进展如何?

人工智能将如何解决农业用水效率问题

通过灌溉优化用水一直与农业的发展和成功耕作密不可分。但是,在对技术和基础设施管理费用进行标准成本效益分析的同时,有效管理自然水资源是一项微妙的平衡行动。

精彩活动