ChatGPT成功用脑电波发邮件的联动脑机接口
5月16日消息,最近,Araya团队在脑机接口实验中成功地使用了ChatGPT,并利用EEG数据训练AI模型来操纵Gmail。
该目标是为了开发BMI技术,以帮助残障人士参与社交互动和沟通,并且该技术还可以应用于提高客户服务场景的响应速度。这一成果让一些网友惊叹科幻成真了,但也有一些网友表示并不惊奇,因为非侵入式的脑机接口在好几年前就已经存在了,即使没有使用AI。
不过,也有网友指出,实验可能使用了预设的提示进行邮件回复,这一点很重要。此外,有人在评论中分享了一篇神经科学家利用生成式AI直接从大脑解码语言序列的文章。
在Nature上刊登的这篇文章中,研究者使用被动BCI(脑机接口)和GPT模型,使用fMRI对患者的思想进行了「解码」,AI理解大脑在看什么和想什么的准确率高达82%。
这项技术可以帮助像霍金一样患有精神疾病、认知障碍或运动神经元疾病的人,并且可以使客户的回复速度提高100倍。尽管如此,这项技术仍可能引发隐私问题,并在某些危险场景中被滥用。 国内网友表示这是救世主的降临,但也有一些公众人物表示,如果这个过程不是通过预先设置好回复邮件的prompt,然后由脑电波触发ChatGPT执行prompt来实现的,那这项研究就非常有意义了。
5月16日消息,最近,Araya团队在脑机接口实验中成功地使用了ChatGPT,并利用EEG数据训练AI模型来操纵Gmail。
最近,OpenAI似乎成了众矢之的。意大利个人数据保护局率先动手,拉响了“数据安全”的警报。紧接着,德国、法国、荷兰和爱尔兰等也纷纷来“取经”。不过据业内人士表示,在个人数据保护上欧洲向来严格,而且欧洲的隐私监管机构往往独立于政府机关。 各国的担忧也不无道理,近期ChatGPT确实出现了bug。三星机密资料外泄,GPT-4动了逃跑的心思,甚至还出现聊天机器人教唆人类自杀事件。 虽然目前ChatGPT存在一定的风险,但也没必要因噎废食。监管不是唱衰人工智能,而是“让我们享受AI
ChatGPT是一款发布于2022年11月的自然语言处理 (NLP) 工具, 能够通过学习和理解人类的语言来完成文案、邮件、翻译、代码的撰写。
今天下午,百度正式发布了生成式人工智能大模型“文心一言”,并展示了它在文学、商业、数理推理等方面的多模态表现。
作为当前最火的生成式AI,ChatGPT表现出来的能力在这两三个月中已经震撼了全球,几乎所有行业都在考虑接入AI,更可怕的是ChatGPT还在不断进化,当前的模型还是21年发布的GPT-3.5,下周就要推出GPT-4了。