人工智能领域的伦理专业知识
项目目标
为人工智能系统在各公共领域的开发和实施阶段所需的人道主义(伦理)专业知识制定评估原则和标准。
专业知识的任务:
确保从事人工智能开发的公司活动的公开性;
加强国家和公众对企业的控制,作为确保其透明度和社会责任的有效因素之一,并确保公众可以获取其创新活动的成果;
开展社会人道主义研究,以确定在社会政治实践以及医疗目的中开发、引进和使用人工智能技术问题上,公众舆论与国家当局立场之间的主要冲突点和妥协点;
确定和证实与可能侵犯人权相关的新风险,并在人际交流和伦理领域发现新的理论和实践解决方案。
需要反思和预防的人工智能系统应用风险
-
在完全信任人工智能系统的情况下,在社会重要领域做出不受控制、有偏见和无偏见决策的风险。
-
侵犯隐私和个人数据保密性的风险
-
人工智能系统的发展和改进过程中不确定性增加的风险及其广泛使用的负面影响,公众对其使用的不满情绪增加,公众对人工智能错误的反应难以预测
-
人们在社会和心理上更加孤立、失去社会交流、社会更加不团结的风险,其后果--个人冲突增加,社会紧张局势普遍加剧
-
为加深社会分化和侵犯人权(如平等机会权和保护弱势群体的权利)创造条件,从而加剧社会紧张局势的风险。
人类世界的人工智能:数字技术发展的人文、伦理和法律问题 "科学研讨会
项目团队
Valentina A. Shilova
Панченко Алла Александровна
Карпова Елизавета Александровна