4006-01-9999
您当前位置:首页 > 申论频道 >申论热点 > 社会

申论热点素材之人工智能的发展

来源: 山东分院2021-12-22 17:25

申论热点材料阅读

一、人工智能:

关于人工智能目前尚无统一的认识,一种广为接受的观点认为,人工智能就是研究如何使计算机去做过去只有人才能做的智能工作,使计算机来模拟人的某些思维过程和智能行为,是从追求智能机器到高水平的人机、脑机相互协同和融合,从聚焦个体智能到基于互联网和大数据的群体智能,它可以把很多人的智能集聚融合起来变成群体智能。

二、人工智能引出的伦理问题:

美国国防部高级研究计划局正在推进两个项目:“快速轻型机器人”(FLA)和“敌对环境下联合作战”(CODE),前者计划设计一款旋翼机,能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行;后者的目标是开发无人飞行器,将能够在完全与总部失去联络的情况下完成一整套攻击程序----搜索目标、锁定、跟踪、攻击、评估。它们将由可能促成“杀手机器人”的研发。对此,美国加州大学伯克利分校的计算机科学教授SlmrnRueesll认为,这些武器所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,“这不是我们多梦想的未来场景”。而来自英国布里斯托尔大学的机器人专家SahinsHauret则表示,公众无须对人工智能技术的发展感到担忧。

三、应对人工智能带来的伦理问题的措施

1.完善法律法规,奠定法律监管基础

德国监管机构致力于制定无人驾驶汽车应如何设定程序的规范,以解决相关困境,比如为避免意外的发生,是选择重罚骑自行车者还是重罚超速行驶者。据悉,试行法规由政府指定的委员会起草。该委员会包括伦理学家、法学家及技术专家等多领域专家。在新行法规下,无人驾驶汽车的核心控件的程序必须被编程好,以不计一切代价避免人员受伤或死亡。这就意味着,在无人驾驶汽车发生无可避免的车祸时,汽车的这个控件必须选择对生命伤害最小化的举措,即使损坏财产或撞击路上的动物。同时,该控件不以当事人的年龄、性别和生理状况作为其行动的参考依据。

2.建立国际公约约束

所谓人工智能武器,是指致命自主武器系统,很多科幻电影中出现的战争机器人就属于此类。它与普通武器根本的区别是,不需要人类的直接监督和决策,能够自动锁定目标并使用潜在武力予以致命打击。一个简单的程序,就会将其改装成屠杀平民的恐怖机器,其危害性远远超过了常规武器。军火是暴利行业,基于人工智能技术,自主化武器会给杀伤属性带来质的变化,必定会诱使军火行业铤而走险。目前世界上还没有严格意义上的人工智能武器,人类的监督和决策在武器使用过程中仍必不可少。比如在战场上发挥了极高军事应用价值的远程武装无人机,虽然高度自动化,集成控制、定位、图像处理等多种尖端技术,也需要配备专业的军事技术人员进行操作。但随着人工智能技术的爆发式发展,技术问题不会再是发展人工智能武器的壁垒,美国的雷神等公司可能已经掌握或正在开发相关技术。

3.建立人工智能伦理学系的机制

有学者指出,可以通过制定计算机学习的伦理来明确人工智能伦理学习的方向。人工智能分担了人类的部分知识和智慧功能,但在最重要的创造性和评审创造性价值方面无法替代,更为重要的是人工智能无法确定自己的进化方向和进化目标,依然是人类的工具。可以将促进和保护种群知识库发展的行为和关系作为正向的伦理标准,把阻碍和危害种群知识库发展的行为和关系为负面的伦理规则来构建人工智能的伦理学习机制。但人工智能伦理学习机制的建立规则仍然需要深入讨论。

参考例文:

人工智能与伦理

随着人工智能深入到人们的生活之中,人工智能可能引发的伦理问题日益受到关注,尤其是涉及到人类的基本价值和威胁人类生存的话题。其实,人们对于人工智能的担忧多半出于对未知事物的恐惧,人工智能作为科技发展的产物不可能解决人类面对的伦理冲突,只是某种程度上放大了这种冲突,人类完全可以采取措施化解人工智能可能带来的伦理危机。

化解人工智能的伦理冲突应当建立明确的责任机制。人工智能引发的伦理问题,有一部分是人类潜在价值冲突的具体化,是表现在生活中的价值选择上的矛盾,责任并不在人工智能技术。比如无人驾驶汽车导致的交通事故,抛开技术本身存在的缺陷,单就在紧急情况下避险导致的人员伤亡来说,即便出现了真实的事故也完全可以按照现实生活中出现的事故来划分责任,其难点在于人工智能应当承担的责任损失由谁承担的问题。这是一个伦理问题,不能单靠技术加以解决。因此,通过立法明确人工智能技术导致的事故责任就成为了解决冲突的必然选择。

对人工智能进行伦理规范应建立人工智能的伦理审核与学习机制。人工智能尚不具备感情和自主意识,即便未来通过学习可以获得独立思考的能力,其价值取向也可以用人文精神加以引领和规范。聊天机器人之所以会说出“希特勒没有错”这样违反伦理的言论,是因为现实社会里有极少数人仍持有这种认识,这句话通过人工智能说出来显得惊悚,但并不奇怪,这种表达与网络上侮辱先烈结构主流价值的言论并无二致。应当避免的是这种言论通过人工智能的快速传播对整个社会空气形成危害,实现这一目标需要深入把握人工智能的学习机制,加强人工智能对主流价值的学习,同时建立对机器人的伦理测试机制。

避免人工智能造成伦理危机应建立人工智能伦理风险防控机制。科学技术是把双刃剑,人工智能在造福人类的同时也具有威胁人类生存的潜在可能。预防危机的关键不在于人工智能本身,而在于掌握和使用技术的人。如果把人工智能用于造福人们的日常生活,带来的将是非常美妙的前景;而如果将人工智能应用于军事手段,用人工智能来杀人,则有可能给人类带来灭顶之灾。从这个意义上说,“杀手机器人”的出现并不是对人工智能技术的拷问,而是对人类良知的拷问。避免人工智能成为杀戮人类的工具,建立全人类范围的人工智能发展的评估和风险防控机制十分必要。

世界潮流浩浩荡荡,顺之则昌逆之则亡,科学技术的发展更是一日千里。人工智能已经进入人们的生活,面对人工智能可能引发的伦理问题甚至危及,人们应该形成清醒的认识,正确认识人类自身存在的缺点和不足,进而从容应对和化解人工智能发展带来的伦理方面的困惑。

已阅读28% 查看剩余内容
关键词: 人工智能工智能的发展申论热点 编辑:zhaocc