第284章 上帝会创造一块他搬不动的石头吗?
至于尹芙·卡莉关于人工智能在社会层面的担忧。
这个林灰倒是略知一二,前世很多大牛确实都表示过这方面的忧虑。
前世斯蒂芬·霍金、比尔·盖茨、马斯克都曾表示了对人工智能会具有自我觉知和意识的忧虑。
尤其是前世霍金,更是夸张地认为人工智能可能是人类最大的灾难,如果管理不当,会思考的机器可能终结人类文明。
至于今生这些人是否发表过同样的言论,林灰没具体关注过。
反正在林灰看来,这方面的担忧或许在理论上有片面的道理,但实际上深究起来其实很离谱。
能够真正威胁人类文明的,肯定是强人工智能,不可能是弱人工智能。
涉及到弱人工智能这些不是完全没有威胁。
但和强人工智能可以由一套系统处理各种智能行为不同。
弱人工智能针对每种智能行为都需要新的独立系统。
在这种情况下即便是弱人工智能因为某种智能性造成威胁了。
人类也只需要对该行为的独立系统进行一定的安全化设计也就k了。
讨论弱人工智能对人类的威胁还不如去考虑一下别有用心的人滥用弱人工智能导致的危害。
在没人滥用的情况下,真正可能威胁到人类的绝不可能是弱人工智能。
归根结底,只有强人工智能才可能真正意义上威胁人类。
在外形上,强人工智能可以和人类相似共享一套生活法则,也可与人类相差甚远形成一套新的生活法则。
在思想上,强人工智能可以与人类共用一套思维模式、道德准则,也可拥有专属体系的独特推理方式,成为一类“拥有灵魂的机器”。
概况地说,强人工智能具有自主意识、自主学习、自主决策的能力。
而这无疑是很容易有风险的。
尽管很容易有风险,但换个角度想一想。
上帝会创造一块他搬不动的石头吗?
同样的道理,人类为什么要造一个无法驾驭的强人工智能呢?
要知道只需要对强人工智能的底层价值取向通过相应的规则、记忆来进行限制和监控
所谓的强人工智能的叛乱是不可能的。
不要以为对强人工智能进行规则设计很麻烦。
其实和规则有关的设计几乎充斥着整个人类生活中。
就以充电器为例吧,一个不起眼的充电器里面很可能拥有着好几种充电协议进行着约束。
通过设计明文规则,限制a的行动范围也不是做不到的事情。
说起来现在人们对强人工智能的担心多多少少有点杞人忧天。
强人工智能虽然是人工智能发展的终极目标。
可是强人工智能哪有那么容易实现呢?
强人工智能想达到的技术原理倒是不复杂,相应的技术指标也容易说清。
无非就是自主意识、自主学习、自主决策。
或者更加通俗地说,就是要机器去学人。
学人认识世界的方式并再基础上尝试利用机器学习进行逻辑层面的彷生从而复现人们认识世界的方式。
道理谁都懂,可是具体实行的时候却有着各种各样的难度。
前世人工智能鼓吹的很牛逼。
反正直到林灰重生前夕,那会人们也没鼓捣出强人工智能。
话说回来既然强人工智能有风险且实现起来很困难。
为什么还要追求强人工智能呢?
首先是强人工智能相比于弱人工智能会大幅度减少训练成本。
前世人工智能方面的应用普遍都是依靠大数据进行训练的。
听起来带着“大数据”三个字很高大上的样子。
但实际上操作起来就很苦逼呵呵了,而且借助于大数据很多情况下实际是不得已为之。
都知道人工智能是追求机器能够像人那样去处理问题。
可是要知道人学东西可是是从小样本进行学习。
就拿图像分类这个小领域来说吧,人对图像进行分类,实际上根本不需要大数据。
只需要很少几个样本就可以做到准确分类。
两三岁小孩开始认识世界的时候。
父母为了让孩子认识动物也不是给孩子看成千上万的照片,而是只给孩子看些动物图集就可以了。
这些图集可能依旧十几页几十页这样,这个样本规模实际是很小的。
再具体一点,如果想让孩童知道什么样的动物是猫。
顶多再给他看几张猫的图片,并且告诉他猫有什么特征,和其他动物像狗或者猪有什么区别的话。
很快,小孩可以很快很准确的识别狗。
这些都是小样本的训练。
可是前世的人工智能想要实现同样的功能。
却需要相当大规模的数据去训练。
也就是通常意义所说的要靠大数据去喂。
同样拿刚才举得例子来说,同样是识别动物,要神经网络学习做到儿童识别动物的水平。
就不说现在这个时空十分拉跨的神经网络应用了。
就是依托于前世比较先进的深度残差神经网络。
想达到人类孩童对动物图像的区分的话。
也需要成千上万张图片才能进行比较充分的训练,才能再实际应用时得到比较准确的结果。
之所以神经网络学习“学得慢”“学得费劲”原因在于
曾经的弱人工智能所主要一来的深度残差神经网络还没有逻辑思考、联想和推理的能力。
讲真,最近一直用看书追更,换源切换,朗读音色多,安卓苹果均可。】
而借助于强人工智能则完全没必要有这方面的担忧。
一旦强人工智能能够实现突破,不光是传统的神经网络学习训练更加容易。
甚至于借助于强人工智能还可能助力于基础学科方面研究的突破。
这些都是人们追求强人工神经网络的原因。
除此之外科研人员追求强人工网络还有很多原因。
比较值得一提的是。
部分科研人员认为生物学上的人类是有劣根性。
人类渴求更加完美的自己。
很多时候对强人工智能甚至是超人工智能的渴求同样也是人类在追求更加完美的自身而已。
这不光是这一单一神经网络的局限性,事实上也正是弱人工神经网络的局限性之所在。
这个林灰倒是略知一二,前世很多大牛确实都表示过这方面的忧虑。
前世斯蒂芬·霍金、比尔·盖茨、马斯克都曾表示了对人工智能会具有自我觉知和意识的忧虑。
尤其是前世霍金,更是夸张地认为人工智能可能是人类最大的灾难,如果管理不当,会思考的机器可能终结人类文明。
至于今生这些人是否发表过同样的言论,林灰没具体关注过。
反正在林灰看来,这方面的担忧或许在理论上有片面的道理,但实际上深究起来其实很离谱。
能够真正威胁人类文明的,肯定是强人工智能,不可能是弱人工智能。
涉及到弱人工智能这些不是完全没有威胁。
但和强人工智能可以由一套系统处理各种智能行为不同。
弱人工智能针对每种智能行为都需要新的独立系统。
在这种情况下即便是弱人工智能因为某种智能性造成威胁了。
人类也只需要对该行为的独立系统进行一定的安全化设计也就k了。
讨论弱人工智能对人类的威胁还不如去考虑一下别有用心的人滥用弱人工智能导致的危害。
在没人滥用的情况下,真正可能威胁到人类的绝不可能是弱人工智能。
归根结底,只有强人工智能才可能真正意义上威胁人类。
在外形上,强人工智能可以和人类相似共享一套生活法则,也可与人类相差甚远形成一套新的生活法则。
在思想上,强人工智能可以与人类共用一套思维模式、道德准则,也可拥有专属体系的独特推理方式,成为一类“拥有灵魂的机器”。
概况地说,强人工智能具有自主意识、自主学习、自主决策的能力。
而这无疑是很容易有风险的。
尽管很容易有风险,但换个角度想一想。
上帝会创造一块他搬不动的石头吗?
同样的道理,人类为什么要造一个无法驾驭的强人工智能呢?
要知道只需要对强人工智能的底层价值取向通过相应的规则、记忆来进行限制和监控
所谓的强人工智能的叛乱是不可能的。
不要以为对强人工智能进行规则设计很麻烦。
其实和规则有关的设计几乎充斥着整个人类生活中。
就以充电器为例吧,一个不起眼的充电器里面很可能拥有着好几种充电协议进行着约束。
通过设计明文规则,限制a的行动范围也不是做不到的事情。
说起来现在人们对强人工智能的担心多多少少有点杞人忧天。
强人工智能虽然是人工智能发展的终极目标。
可是强人工智能哪有那么容易实现呢?
强人工智能想达到的技术原理倒是不复杂,相应的技术指标也容易说清。
无非就是自主意识、自主学习、自主决策。
或者更加通俗地说,就是要机器去学人。
学人认识世界的方式并再基础上尝试利用机器学习进行逻辑层面的彷生从而复现人们认识世界的方式。
道理谁都懂,可是具体实行的时候却有着各种各样的难度。
前世人工智能鼓吹的很牛逼。
反正直到林灰重生前夕,那会人们也没鼓捣出强人工智能。
话说回来既然强人工智能有风险且实现起来很困难。
为什么还要追求强人工智能呢?
首先是强人工智能相比于弱人工智能会大幅度减少训练成本。
前世人工智能方面的应用普遍都是依靠大数据进行训练的。
听起来带着“大数据”三个字很高大上的样子。
但实际上操作起来就很苦逼呵呵了,而且借助于大数据很多情况下实际是不得已为之。
都知道人工智能是追求机器能够像人那样去处理问题。
可是要知道人学东西可是是从小样本进行学习。
就拿图像分类这个小领域来说吧,人对图像进行分类,实际上根本不需要大数据。
只需要很少几个样本就可以做到准确分类。
两三岁小孩开始认识世界的时候。
父母为了让孩子认识动物也不是给孩子看成千上万的照片,而是只给孩子看些动物图集就可以了。
这些图集可能依旧十几页几十页这样,这个样本规模实际是很小的。
再具体一点,如果想让孩童知道什么样的动物是猫。
顶多再给他看几张猫的图片,并且告诉他猫有什么特征,和其他动物像狗或者猪有什么区别的话。
很快,小孩可以很快很准确的识别狗。
这些都是小样本的训练。
可是前世的人工智能想要实现同样的功能。
却需要相当大规模的数据去训练。
也就是通常意义所说的要靠大数据去喂。
同样拿刚才举得例子来说,同样是识别动物,要神经网络学习做到儿童识别动物的水平。
就不说现在这个时空十分拉跨的神经网络应用了。
就是依托于前世比较先进的深度残差神经网络。
想达到人类孩童对动物图像的区分的话。
也需要成千上万张图片才能进行比较充分的训练,才能再实际应用时得到比较准确的结果。
之所以神经网络学习“学得慢”“学得费劲”原因在于
曾经的弱人工智能所主要一来的深度残差神经网络还没有逻辑思考、联想和推理的能力。
讲真,最近一直用看书追更,换源切换,朗读音色多,安卓苹果均可。】
而借助于强人工智能则完全没必要有这方面的担忧。
一旦强人工智能能够实现突破,不光是传统的神经网络学习训练更加容易。
甚至于借助于强人工智能还可能助力于基础学科方面研究的突破。
这些都是人们追求强人工神经网络的原因。
除此之外科研人员追求强人工网络还有很多原因。
比较值得一提的是。
部分科研人员认为生物学上的人类是有劣根性。
人类渴求更加完美的自己。
很多时候对强人工智能甚至是超人工智能的渴求同样也是人类在追求更加完美的自身而已。
这不光是这一单一神经网络的局限性,事实上也正是弱人工神经网络的局限性之所在。