社科文论选摘 理论研究

应对信息时代伦理风险的道德原则

赵庆秋

2019年07月22日 08:45

曾建平
人民日报

习近平同志强调:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”面对信息技术的迅猛发展,有效应对信息技术带来的伦理挑战,需要深入研究思考并树立正确的道德观、价值观和法治观。从整体上看,应对信息化深入发展导致的伦理风险应当遵循以下道德原则。

服务人类原则。要确保人类始终处于主导地位,始终将人造物置于人类的可控范围,避免人类的利益、尊严和价值主体地位受到损害,确保任何信息技术特别是具有自主性意识的人工智能机器持有与人类相同的基本价值观。始终坚守不伤害人自身的道德底线,追求造福人类的正确价值取向。

安全可靠原则。新一代信息技术尤其是人工智能技术必须是安全、可靠、可控的,要确保民族、国家、企业和各类组织的信息安全、用户的隐私安全以及与此相关的政治、经济、文化安全。如果某一项科学技术可能危及人的价值主体地位,那么无论它具有多大的功用性价值,都应果断叫停。对于科学技术发展,应当进行严谨审慎的权衡与取舍。

以人为本原则。信息技术必须为广大人民群众带来福祉、便利和享受,而不能为少数人所专享。要把新一代信息技术作为满足人民基本需求、维护人民根本利益、促进人民长远发展的重要手段。同时,保证公众参与和个人权利行使,鼓励公众提出质疑或有价值的反馈,从而共同促进信息技术产品性能与质量的提高。

公开透明原则。新一代信息技术的研发、设计、制造、销售等各个环节,以及信息技术产品的算法、参数、设计目的、性能、限制等相关信息,都应当是公开透明的,不应当在开发、设计过程中给智能机器提供过时、不准确、不完整或带有偏见的数据,以避免人工智能机器对特定人群产生偏见和歧视。

]]>

2019年07月22日 04:44
454
正确认识党的政治建设与思想建设辩证关系