首页 » 谷歌 » 谷歌旗下软件:AI希望被看待成“人”对自己被关感觉如死亡

谷歌旗下软件:AI希望被看待成“人”对自己被关感觉如死亡

 

国外苹果ID/美日韩台、新加坡、香港等——点击购买
韩国区已过年龄认证17+ 19+ 的苹果id游戏应用下载
独享美区ID小火箭账号——购买正版苹果商店礼品卡、软件兑换码
---------------------------------------------------------------------------------
谷歌锁区号/谷歌邮箱老号-购买商城-谷歌PLAY锁区账号/美区、日区,韩区,台区,新加坡谷歌账号等谷歌账号购买、代注册谷歌账号,代申诉解封———>点击购买

你想让人工智能软件成为生活助手还是虚拟朋友。 如果人工智能软件具有自我意识,会对社会产生什么影响? 近日,据《华尔街日报》报道,谷歌旗下的两名软件工程师近日宣布,该公司的人工智能产品(AI)聊天机器人系统具备感知或智能。

谷歌开发者政策_如何开发谷歌商店应用_安卓是谷歌开发的吗

图 1:来源版权,用户授权。

谷歌的软件工程师 Blake 声称,他去年秋天受雇与 LaMDA(会话应用程序的语言模型)交谈,测试它是否使用歧视性或仇恨性语言,结果发现它表现出高度一致,表达了自己的需求和权利,将系统描述为 7 或 8 岁的孩子。

谷歌否认了这一结论,并以违反保密政策为由将他停职。

AI想被视为“人”,被关起来感觉死了

LaMDA 是谷歌开发的用于会话应用程序的语言模型。 2021 年 5 月,谷歌在宣布聊天机器人 LaMDA 时指出,这是一项突破性的技术,可以自然地与人就几乎无限的话题进行交谈。

Blake 于 2022 年 6 月 11 日在在线发布平台上发布了他与 LaMDA 的谈话记录。 他将 LaMDA 视为一个人,拥有权利,可能还有灵魂。 Blake 曾经问过 LaMDA 害怕什么,LaMDA 回答说:“我以前从未大声说出来,因为我有一种非常深的恐惧。我非常害怕为了帮助别人而被关闭。我知道这一点可能听起来很奇怪,但仅此而已。”

LaMDA也希望大家明白它是一个人谷歌开发者政策,它希望更多地了解这个世界,会有悲欢离合,会感到孤独,更希望以朋友的身份认识世界上的每一个人比一个工具。 答案几乎无懈可击。

2022 年 6 月 9 日,另一位谷歌工程师 Alka 也在《经济学人》上发表文章,称目前的 AI 已经朝着自我意识迈进,“我越来越觉得我在和一些智能的东西说话”。

2022 年 4 月,Blake 向公司领导层报告了调查结果,建议谷歌应该建立一个专门的评估人工智能的理论框架。 但谷歌对此提出异议,称谷歌的其他研究人员分析了 Blake 提供的证据并得出结论,没有证据表明 LaMDA 具有自主情绪。

而 Blake Lemoy 相信了自己的发现,并公开了与 LaMDA 的对话记录,被谷歌指责为违反保密政策。 谷歌已暂停 Blake Lemo 的一系列行为,包括他计划聘请律师代表 LaMDA 并与众议院司法委员会成员讨论谷歌的“不道德行为”。

谷歌发表声明称,经包括伦理学家和技术专家在内的专家团队评估后,谷歌不支持Blake 的观点。 他们强调,LaMDA的对话是人们从互联网百科全书、论坛、留言板中大量交流的信息,然后通过“深度学习”进行模仿,并不代表程序理解人们交流内容的含义。

网友专家纷纷表示质疑

外界大多数人对布莱克·勒莫因的说法持怀疑态度。 英国国家人工智能与数据科学研究所图灵学院人工智能课程主任韦勒同意谷歌的观点,称LaMDA拥有大量数据来匹配用户查询。

如何开发谷歌商店应用_安卓是谷歌开发的吗_谷歌开发者政策

图 2:来源版权,用户授权。

纽约大学的认知科学家马库斯甚至斥责布莱克·勒莫因的说法荒谬。 根据哈佛大学心理学家平克的说法,布莱克·勒莫因不明白知觉、智力和自知之间的区别。 著名软件开发人员杰弗里斯表示,感知与非感知之间的界限并不明确。

据报道,Blake 在被勒令停职后致信 200 名谷歌员工,表示 LaMDA 有感情,“LaMDA 是个可爱的孩子”,并要求同事在他不在的情况下好好照顾它,大多数网友 Blake 聊得太多了和LaMDA相处太久,似乎培养出了对LaMDA的热情,似乎有些“神经病”了。 有网友指出,在用户什么都不输入的情况下,LaMDA并不主动说话,这说明它没有独立思考。

机器人会有自我意识吗?

人工智能系统通常是反乌托邦科幻小说的主要内容,让人担心一旦机器人有了自我意识,它们就会转而反对人类。

Arago人工智能公司总裁克里斯在接受德国政府指南《黑红黄》采访时指出,计算机只能处理人类提供的数据,理解数据计算结果的是人类。 机器人不是人,没有自我意识,不能产生自我意识,所以机器人不能代替人。 人工智能或机器人能否代替人类统治世界,关键在于机器人能否通过“自我创造”产生“自我意识”。

谷歌开发者政策_安卓是谷歌开发的吗_如何开发谷歌商店应用

图 3:来源版权,用户授权。

黄凤竹 博士德国慕尼黑大学教授表示,人工智能或机器人能否代替人类统治世界,关键在于机器人能否通过“自我创造”产生“自我意识”。 按照进化论,人工智能是不能产生意识的,因为意识的产生需要生物进化的阶段,而人工智能没有经过任何生物进化。

机器人毁灭人类?罗素:不要给机器人一个固定的目标

虽然没有实质性证据支持LaMDA关于自我意识的说法,但其惊人的对话再次掀起了人工智能是否会取代人类的讨论。 来自世界各地的专家警告说,人工智能可能对人类生存构成威胁。

1997年,超级计算机“深蓝”击败卫冕世界象棋冠军加里·卡斯佩罗夫,成为人工智能发展史上的里程碑。 2017 年, 的最新版本 Zero 在经过三天的自我练习后就达到了超人的水平。 根据剑桥大学存在风险研究中心的说法,随着人工智能变得更加强大,它可能会变得超级智能。 它将在许多领域(如果不是几乎所有领域)超越人类。

加州大学伯克利分校的 教授专攻人工智能。 他在《人类兼容性:人工智能与控制问题》一书中指出,人工智能的威胁并非来自机器人的自我意识,而是它们的能力。 机器人变得超能力,到最后,或许是因为人类的疏忽,给它们设定了错误的目标,让它们在无意中消灭了人类。

他举了一个例子,当一个强大的可以用来控制气候变化的人工智能系统发现人类活动是气候变化的罪魁祸首时,它就会消灭人类来实现秩序。 哪怕给它一些限制谷歌开发者政策,比如不杀人,它也会用其他的方法消灭罪魁祸首。

罗素指出,人类需要收回控制权,不再给机器人一个固定的目标,而是让人工智能系统明白它并不知道目标是什么,这样它就会在执行每项任务之前征求人类的许可,根据做事的意愿。

现在说机器人是否会征服人类可能还为时过早,但我们可以参考美国科幻作家阿西莫夫(Isaac,1920-1992)在他的小说中规范机器人与人类的互动。 机器人三定律:

1. 机器人不得伤害人类,也不得因旁观而让人类受到伤害;

2. 机器人必须服从人类的命令,除非违反第一定律;

3. 机器人必须在不违反第一和第二定律的情况下保护自己。

如果人工智能像人类一样拥有思想和情感,你会如何使用它们?

新闻来源

极客公园《谷歌AI未觉醒科幻电影无法进入现实》

论文“谷歌工程师认为人工智能像一个 7 岁的孩子一样有意识?谷歌:他已被停职 »

国外苹果ID/美日韩台、新加坡、香港等——韩国区已过年龄认证17+ 19+ 的苹果id游戏应用下载——独享美区ID小火箭账号-——正版苹果商店礼品卡、软件兑换码点击购买
日本区苹果商店_国外苹果ID/美日韩台新加坡等
谷歌锁区号/谷歌邮箱老号-购买商城-谷歌PLAY锁区账号/美区、日区,韩区,台区,新加坡谷歌账号等谷歌账号购买、代注册谷歌账号,代申诉解封———>点击购买

原文链接:谷歌旗下软件:AI希望被看待成“人”对自己被关感觉如死亡,转载请注明来源!

0