第八章 机器人伦理
第八章
机器人伦理
应该不会...
沙洲摇头,若有所思道:我们汉代的《淮南子》一书中就曾经说过,机械之心不载私虑...
我给傻妞设置了各种自主行动智能程序,她能根据程序做出自我判断,然后采取行动,比如趁我午睡自己去拿快递,还有刚才对你做出生气的举动...
我之所以给她做这些复杂的设定,就是想培养傻妞的自主意识,等到哪天傻妞能自己研发出自主行动的程序,能自我学习,自我进化,说不定就能有自我意识...
不过,傻妞的所有行动,都和我深度绑定,她的一切行为,都是为了更好地为我提供服务,这是她与生俱来的机器人伦理...
而且,我还为她搭载了量子退相干监测模块,增加生物电脉冲抑制器,以防范忽然出现的危险...
还有,傻妞会每天记录自主决策的因果链,形成《AI伦理审查日志系统》,由大模型来分析,预防危险...
所以我认为,就算机器人进化出了自我意识,也不可能杀死人类,称霸地球...
那不过是坏人用自己人性的邪恶,来揣度机器人,自以为是地认为机器人和他们一样坏!
那也不一定...
刘曦彤却皱眉摇头说道:你是从技术层面,分析机器人的伦理,但你还是小看了人性的恶,没有从社会学看问题...
你说的底层逻辑都没错,机器人从诞生那一刻起,就被设定了不能伤害人类的伦理底线,目的只是为了更好地服务人类...
可要是有心底邪恶的科学家,把机器人的底层逻辑设定为自私自利,一切以自己利益为最高行动准则,那这个机器人就是邪恶的,它要是进化到终极形态,说不定就会杀死自己的主人,掠夺一切资源为他所用!
嗯,你从社会学角度来分析机器人的伦理问题,的确很有道理,AI机器人就像一瓶白开水,要是调进糖就是甜蜜的饮料,可要是调进毒药,就能杀人啊!
沙洲听了刘曦彤的话,似乎对机器人的伦理有了新的认识,叹道:机器人的伦理问题,学术界还没有定论,只是有一些简单的准则和原则,比如机器人三大伦理定律...
哪三大定律我咋没听说过刘曦彤好奇问道。
这其实是一位国外科幻作家提出来的...
沙洲解释道:第一定律是机器人不得伤害人类,或因不作为使人类受到伤害,确保人类生命安全的绝对优先性,是机器人一切行为的前提...
第二定律是机器人必须服从人类的命令,除非该命令与第一定律冲突,强调在保障人类安全的基础上,机器人对人类的服从性...
第三定律是在不违背第一、第二定律的前提下,机器人必须保护自身存在...
这条定律赋予机器人自我保护的权利,但需以不威胁人类为前提...
不过,这都是人们对机器人伦理最基础的理解,现在机器人发展速度这么快,关于机器人的伦理规范化,是亟待解决的问题!
不用着急,你的傻媳妇连个柴都不会劈,要想进化出自主意识,怎么也得几百年!刘曦彤笑道。
你太小看AI机器人了...
沙洲却叹道:虽然AI机器人的研究这些年才刚开始,可迭代速度呈几何级数增长,要是AI机器人真的有了自我学习进化能力,可就是无所不能了...
傻妞劈柴看起来没有人类那么灵活精准,可她只需要略做改变,就能干得又快又好!
说着,沙洲取出一个圆盘状的锯片和机械臂,安装在傻妞的两条胳膊上,又在电脑上输入了一串代码。
傻妞手臂上的圆锯片就