本文目录导航:
人类与人工智能如何相处?
在回复《人工智能具有思维和自我意识吗?()》中,提到了在AI的助力下,机器人完成了对人类的外形及基本功能的模仿,并预计在未来十年内可能会出现具有自我意识的机器人。
那么在面对拥有自我意识的机器人,人类该如何与之相处?又该遵从哪些伦理道德? 从机器人被造出来的那一刻,机器人和人类的关系就从未停止过讨论。
上世纪五十年代,著名科幻大师艾萨克•阿西莫夫(Isaac Asimov)在为其科幻小说《我,机器人》所写的《引言》中提到了后来著名的“机器人学三大法则”: 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观; 第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外; 第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
虽然机器人学三大法则并没有实际应用在现实机器人工业领域当中,但却在阿西莫夫小说中大放异彩,并影响了很多科幻小说的作者,还受到了许多AI和机器人领域的技术专家的认同。
2005年根据阿西莫夫同名小说改编的电影《我,机器人》(I, Robot)上映,该影片讲述了在人与机器人和谐相处的2035年,警察Del Spooner(德尔·斯普纳)受命调查Dr. Alfred Lanning(阿尔弗莱德·蓝宁博士)自杀案时,与智能机器人Sonny(桑尼)合作揪出了幕后凶手——NS大楼的主控电脑Wiki(维基)。
电影里的Wiki虽然产生了自我意识,但受限于机器人学三大法则,它无法直接伤害人类。
于是它便修改了NS-5机器人的程序,从而导致整个世界的NS-5机器人叛变并意图控制人类,由此掀开了一场制造者与被制造者之间的战争序幕。
机器人由人类创造,人类用AI赋予机器人灵魂。
所以,人类在思考该如何与机器人相处的时候,其实也是在思考该如何与AI相处;人类在恐惧机器人有可能取代人类的统治地位的时候,其实也是在恐惧AI有可能会取代人类的统治地位;人类在讨论机器人的伦理道德的时候,其实也是在讨论AI的伦理道德。
随着AI技术向电影里想象的那样发展, 社会 也开始广泛关注AI所带来的伦理道德问题。
微软公司总裁史密斯曾公开表示,“杀手机器人”的出现在未来将无法避免,人类 社会 应该有一个新的“数字《日内瓦公约》”也就是一套道德标准来约束与引导AI的发展。
AI不可能凭空产生,AI伦理道德也不可能凭空出现。
所以为避免类似《我,机器人》电影中的情节出现在现实生活当中,人类在发展AI技术的同时,也在不断探讨和完善AI伦理道德,比如世界电气电子工程师学会IEEE全球人工智能与伦理倡议,比如阿西洛马人工智能23条伦理原则等等,其目的都是使AI在不同的条件下能够做出符合人类伦理的决策。
AI是人类手中的一把双刃剑,如果能够得到正确的应用,那将会极大的提高生产力改善人类生活环境,如阿斯利康利用AI赋能药品研发,加快药品上新速度;特斯拉利用AI赋能 汽车 驾驶,帮助用户操控 汽车 ;小i机器人利用AI赋能客服行业,替企业减少用工成本…… 相反则也有可能颠覆人类生活并带来伦理层面的挑战,如ZAO推出的“AI换脸APP”让用户在体验换脸的刺激时,不自觉侵犯他人肖像权;如Deep Nude 推出的 “一键脱衣”软件可以自动“脱掉”照片中人物身上的衣服,使部分人成为该技术的受害者;如某些APP悄悄收集用户信息分析用户情况,以此来给用户推送他可能感兴趣的资讯或商品等…… 目前,对于AI伦理道德主要聚焦在算法歧视(指算法开发设计者有可能会将自身价值判断嵌入算法系统)、数据隐私(指滥用个人信息、制造导向等问题)、安全与责任(如何保证数据不被串改,以及发生事故后如何判责等问题)、机器人与人的关系(机器人是否会对人进行反控制及如何界定机器人与人之间的关系)及 科技 贫困(AI取代人工会是否会造成贫富差距扩大化)等五大领域。
对此,欧盟委员会在2019年发布了一份人工智能道德准则,提出了实现可信赖AI的七个要素,并要求不得使用公民个人资料做出伤害或歧视他们的行为;同年,美国总统特朗普签署了一项名为“维护美国人工智能领导地位”的行政命令,该行政命令以五项原则为指导,维持和加强美国在AI研发和部署方面的科学、技术和经济领导地位;而中国国家新一代人工智能治理专业委员会也在同年发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了AI治理的框架和行动指南,并强调发展负责任的人工智能。
除了部分国家有所作为外,不少 科技 公司和行业协会也有所行动。
如微软成立了人工智能伦理道德委员会,负责对每一款AI产品的道德伦理风险进行评估;如亚马逊、微软、谷歌等全球百余家 科技 公司创建了人工智能合作组织(Partnership on AI),提出了公平、没有伤害、公开透明以及问责等伦理道德框架;比如IEEE在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准…… AI由人类创造,由人类推动,并为人类所用。
在这个AI高速发展的时代,AI将如小i机器人创始人兼CEO袁辉博士所预期的那样——人工智能将无处不在,就像空气和水一样。
(上图:小i机器人创始人兼CEO袁辉博士) 在AI大范围应用的同时,也将会导致部分人失业。
但回顾过去, 科技 革命在消灭很多职业的同时,也会产生新职业,比如 汽车 取代马车,马车夫消失,但出现了司机。
AI会取代一部分岗位和职业,但也会有新的工作岗位因此诞生。
为了应对扑面而来的AI浪潮,我们只有努力提高自身能力和认知水平(如培养分析理解和利用数据的能力,培养与机器沟通的能力等等),才能紧跟时代步伐。
将在回复《AI(人工智能)到底是什么?() 》中,再接着详谈介绍一些AI的基础底层技术(如算法、自然语言处理等),以便大家对AI有更进一步的全面了解。
最后,再顺便打个小广告,“陈思进 财经 漫画”系列第一部《漫画生活中的 财经 》新鲜出炉,谢谢关注! 你对这个问题有什么更好的意见吗?欢迎在下方留言讨论! 这是一个很大问题。
前几天,沙特授以机器人索菲亚为沙特公民身份,这是个里程碑事件,已将机器人提升到与人平等的关系。
当然,这还是弱人工智能时代,大部分机器人都是通过人的程序,人训练的交互模式运行的,机器人还是人类可控的机器。
未来,人类进入强人工智能时代,机器人有意识、有 情感 ,在智能活动上甚至远超于人类。
如何处理人类与智能机器人的关系,令很多科学家和 科技 大佬头疼。
这是需要从法律和道德伦理等方面重构人与智能机器人的关系。
毫无疑问,建立一种基于人类的可控的人机协作伙伴关系是最理想的,但也要严密预防机器人不当的利用给对人类带来灾难。
人工智能与人类应当是从属关系,人工智能只能从事辅助类工作,而并不能跟人类平起平坐。
比如你可以给一家公司让它帮你管理,但这家公司永远不可能是属于它的。
简单的说,它并不能拥有专属于人类的基本权力。
因为如果一个人工智能如果权力与人类相当甚至超过人类,那对人类来说将是非常危险的。
因为在它们看来,机器生命也许比自然生命更为有效,因而可能会引起对人类的捕杀。
所以,人类对人工智能的开发应当保持克制,在没有能力完全控制住它时,不能让它的智能无限提高。
更不能让它拥有人类的自我意识,要不然,它成佛便罢,要是自带魔性,人类末日就到了。
。
。
如果人工智能真的发展到了可以完全自主进化的水平,他们还有必要用战争手段征服人类吗?
遥远的未来——就在眼前
想象一下坐时间机器回到1750年的地球,那个时代没有电,畅通通讯基本靠吼,交通主要靠动物拉着跑。
你在那个时代邀请了一个叫老王的人到2015年来玩,顺便看看他对“未来”有什么感受。
我们可能没有办法了解1750年的老王内心的感受——金属铁壳在宽敞的公路上飞驰,和太平洋另一头的人聊天,看几千公里外正在发生进行的体育比赛,观看一场发生于半个世纪前的演唱会,从口袋里掏出一个黑色长方形工具把眼前发生的事情记录下来,生成一个地图然后地图上有个蓝点告诉你现在的位置,一边看着地球另一边的人的脸一边聊天,以及其它各种各样的黑科技。
别忘了,你还没跟他解释互联网、国际空间站、大型强子对撞机、核武器以及相对论。
这时候的老王会是什么体验?惊讶、震惊、脑洞大开这些词都太温顺了,我觉得老王很可能直接被吓尿了。
但是,如果老王回到了1750年,然后觉得被吓尿是个很囧的体验,于是他也想把别人吓尿来满足一下自己,那会发生什么?
于是老王也回到了250年前的1500年,邀请生活在1500年的小李去1750年玩一下。
小李可能会被250年后的很多东西震惊,但是至少他不会被吓尿。
同样是250来年的时间,1750和2015年的差别,比1500年和1750年的差别,要大得多了。
1500年的小李可能能学到很多神奇的物理知识,可能会惊讶于欧洲的帝国主义旅程,甚至对于世界地图的认知也会大大的改变,但是1500年的小李,看到1750年的交通、通讯等等,并不会被吓尿。
所以说,对于1750年的老王来说,要把人吓尿,他需要回到更古老的过去——比如回到公元前年,第一次农业革命之前。
那个时候还没有城市,也还没有文明。
一个来自狩猎采集时代的人类,只是当时众多物种中的一个罢了,来自那个时代的小赵看到1750年庞大的人类帝国,可以航行于海洋上的巨舰,居住在“室内”,无数的收藏品,神奇的知识和发现——他很有可能被吓尿。
小赵被吓尿后如果也想做同样的事情呢?如果他会到公元前年,找到那个时代的小钱,然后给他展示公元前年的生活会怎样呢。
小钱大概会觉得小赵是吃饱了没事干——“这不跟我的生活差不多么,呵呵”。
小赵如果要把人吓尿,可能要回到十万年前或者更久,然后用人类对火和语言的掌控来把对方吓尿。
所以,一个人去到未来,并且被吓尿,他们需要满足一个“吓尿单位”。
满足吓尿单位所需的年代间隔是不一样的。
在狩猎采集时代满足一个吓尿单位需要超过十万年,而工业革命后一个吓尿单位只要两百多年就能满足。
未来学家Ray Kurzweil把这种人类的加速发展称作加速回报定律(Law of Accelerating Returns)。
之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。
19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快。
即使放到更小的时间规模上,这个定律依然有效。
著名电影《回到未来》中,生活在1985年的主角回到了1955年。
当主角回到1955年的时候,他被电视刚出现时的新颖、便宜的物价、没人喜欢电吉他、俚语的不同而震惊。
但是如果这部电影发生在2015年,回到30年前的主角的震惊要比这大得多。
一个2000年左右出生的人,回到一个没有个人电脑、互联网、手机的1985年,会比从1985年回到1955年的主角看到更大的区别。
这同样是因为加速回报定律。
1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度要快,因为1985年的世界比1955年的更发达,起点更高,所以过去30年的变化要大过之前30年的变化。
进步越来越大,发生的越来越快,也就是说我们的未来会很有趣对吧?
未来学家Kurzweil认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成——2000年的发展速度是20世纪平均发展速度的5倍。
他认为2000年开始只要花14年就能达成整个20世纪一百年的进步,而之后2014年开始只要花7年(2021年),就能达到又一个20世纪一百年的进步。
几十年之后,我们每年都能达成好几次相当于整个20世纪的发展,再往后,说不定每个月都能达成一次。
按照加速回报定,Kurzweil认为人类在21世纪的进步将是20世纪的1000倍。
如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们吓尿了——下一个吓尿单位可能只需要十几年,而2050年的世界会变得面目全非。
你可能觉得2050年的世界会变得面目全非这句话很可笑,但是这不是科幻,而是比你我聪明很多的科学家们相信的,而且从历史来看,也是逻辑上可以预测的。
那么为什么你会觉得“2050年的世界会变得面目全非” 这句话很可笑呢?有三个原因让你质疑对于未来的预测:
1.我们对于历史的思考是线性的。
当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。
当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。
这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。
线性思考是本能的,但是但是考虑未来的时候我们应该指数地思考。
一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。
当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。
2.近期的历史很可能对人产生误导。
首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。
其次,指数增长不是平滑统一的,发展常常遵循S曲线。
S曲线发生在新范式传遍世界的时候,S曲线分三部分
- 慢速增长(指数增长初期)
- 快速增长(指数增长的快速增长期)
- 随着新范式的成熟而出现的平缓期
如果你只看近期的历史,你很可能看到的是S曲线的某一部分,而这部分可能不能说明发展究竟有多快速。
1995-2007年是互联网爆炸发展的时候,微软、谷歌、脸书进入了公众视野,伴随着的是社交网络、手机的出现和普及、智能手机的出现和普及,这一段时间就是S曲线的快速增长期。
2008-2015年发展没那么迅速,至少在技术领域是这样的。
如果按照过去几年的发展速度来估计当下的发展速度,可能会错得离谱,因为很有可能下一个快速增长期正在萌芽。
3. 个人经验使得我们对于未来预期过于死板。
我们通过自身的经验来产生世界观,而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。
”
我们还会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。
当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测偏了。
如果我现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是会死的。
”
是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀。
接下来的内容,你可能一边读一边心里“呵呵”,而且这些内容可能真的是错的。
但是如果我们是真的从历史规律来进行逻辑思考的,我们的结论就应该是未来的几十年将发生比我们预期的多得多得多得多的变化。
同样的逻辑也表明,如果人类这个地球上最发达的物种能够越走越快,总有一天,他们会迈出彻底改变“人类是什么”这一观点的一大步,就好像自然进化不不断朝着智能迈步,并且最终迈出一大步产生了人类,从而完全改变了其它所有生物的命运。
如果你留心一下近来的科技进步的话,你会发现,到处都暗示着我们对于生命的认知将要被接下来的发展而彻底改变。
麦可斯韦尔定律:什么是它?为什么它如此重要?
麦可斯韦尔定律(Moores Law)是一条重要的计算机发展定律,它揭示了芯片技术的发展趋势。
这个定律是由英特尔公司创始人戈登·摩尔在1965年提出的,它的核心内容是:芯片的集成度每隔大约18个月就会翻一番,同时芯片的造价也会降低一半。
这个定律被认为是计算机技术发展的重要里程碑,对计算机行业和整个信息技术产业的发展产生了深远的影响。
麦可斯韦尔定律:什么是它?为什么它如此重要?麦可斯韦尔定律的重要性麦可斯韦尔定律的重要性体现在以下几个方面:技术预测:麦可斯韦尔定律提供了计算机技术发展的预测,这为行业内的企业和投资者提供了重要的参考。
在计算机行业中,每个公司都希望能够提前预测技术趋势,以便在新技术出现之前就能够制定相应的战略和规划。
产业转型:麦可斯韦尔定律推动了计算机产业的转型。
随着芯片集成度的不断提高,计算机变得更加小巧、便携和高效,这使得计算机的应用场景也不断拓展。
与此同时,计算机行业也不断涌现出新的领域和商业模式,例如云计算、人工智能、大数据等等。
经济影响:麦可斯韦尔定律的实现也对经济产生了深远的影响。
芯片的成本降低,使得计算机产品的价格也随之下降,这促进了计算机产品的大规模普及。
另外,计算机的广泛应用也推动了其他行业的数字化、自动化和智能化,进而带动了整个经济的发展。
技术进步:麦可斯韦尔定律也推动了计算机技术的持续进步。
随着芯片集成度的提高,计算机的运算速度变得更加快速,存储容量也越来越大。
这为计算机应用的开发和创新提供了支撑,也促进了计算机科学领域的研究和发展。
麦可斯韦尔定律的挑战尽管麦可斯韦尔定律在计算机产业中扮演着重要的角色,但是它面临着一些挑战。
其中最主要的挑战是芯片制造技术的物理极限。
随着芯片集成度的不断提高,芯片的物理结构也变得更加复杂,制造难度逐渐增加。
这意味着芯片制造技术在未来可能会遇到瓶颈,无法继续按照麦可斯韦尔定律的预测发展。
另外,麦可斯韦尔定律也面临着商业和市场方面的挑战。
随着计算机产业的不断发展,市场竞争变得越来越激烈,企业需要不断推出新的产品和技术来保持竞争优势。
这也意味着企业需要在技术创新和市场需求之间找到平衡点,否则很难保持持续的发展。
评论(0)