人工智能的伦理困境研究

作者:黄明文 来源:推广部 时间:2019-07-01 15:23

经过多年的测试,这起事故导致谷歌无人驾驶汽车受伤,人工智能的道德问题再次浮出水面。人工智能的研究基本上是哲学的。学者们认为,不同的人工智能专家提出的人工智能产品背后有不同的哲学前提和思路。两台具有不同编程思想的机器在预测同一事物时会得出不同的结论。同样,不可能期望通过Make a machine来解决所有问题,因为机器本身是有限的。

人工智能的伦理困境研究

随着人类智能的物化,许多互联网巨头纷纷投入大量人工智能,并在人工智能领域进行了研究,如语音识别、图像识别、自动驾驶汽车技术。每一项技术的诞生,包括人工智能、的发展和进步,在一定程度上是技术发展逻辑的终结,它取代了人类的物理和智能与机器。上海社会科学院哲学研究所副研究员说。一些专家认为,在一些灾害背后,总会有一些人为因素导致或加剧灾难性后果。在某些特殊情况和极端条件下,人类的弱点往往会加剧灾难的后果。他说,在某些情况下,技术的应用有助于克服负面情绪。人工智能的自动化机器(或软件)比人类更准确。、可靠而完整地执行某些任务。成熟的人工智能系统可以在一定程度上减少甚至纠正人类的不安全感。

复旦大学哲学系教授徐应金强调,即使是智能机器也应该被视为科学家,科学规则可以通过统计编程自动运行,如、数据挖掘原理。归根结底,它是人类智慧的物化。机器人的道德意识是关注的焦点。事实上,随着人工智能技术的广泛使用,在这些领域广泛使用的机器人也面临着类似的道德困境:机器人能否成为道德规范?例如,自动驾驶汽车使生活更轻松,更安全。然而,面对复杂的道路环境,我们真的可以将可能涉及生死力量的道德选择交给机器人吗?中国社会科学院哲学研究所研究员甘少平认为,机器人与自由选择的机器人根本不同。在他看来,前者的行为取决于理性,后者的独立决定取决于理性,决定意味着不同的思考和选择理由。原因是从属于自然的必然性。它的根源在于人际交往,社会交往规律以及文化和历史经验积累的反思和觉醒。道德选择的前提是自由意志。

人工智能的伦理困境研究

意志自由只属于那些能够考虑、判断、权衡和选择理由的人。机器人不能拥有自由意志或能够理解道德决策的能力。中国政法大学哲学系教授费多义质疑机器人伦理的概念。机器只能在理想条件下识别,而不能在后者与人类主观体验密不可分的复杂情况下识别。机器始终机械地执行人体编程程序。该算法无法描述人类视觉思维的容错能力。这种容错是人类自豪感的心理特征。徐应金认为,虽然机器人不够聪明,不能成为道德主体,但机器人并非完全没有道德意识。为了实现这一目标,人类需要研究道德意识和程序之间的关系,并用一套编程语言表达规则。但他也指出,机器人现在可以充当顾问,也就是说,当我们面临不同的选择时,它提供了每种选择面临不同结果的可能性,人类拥有最终发言权并承担所有责任。毕竟,员工的选择来自客观理性,它平衡了人们的直觉思维,促进了直觉和机器解决方案之间的平衡选择。关于人工智能在各种应用中的副作用有许多谨慎的声音,人们担心越来越复杂的技术可能成为一把双刃剑。今年1月,人工智能科学家生命未来研究所发表了一封公开信,呼吁人们警惕人工智能的副作用。特别提及人工智能的法律和道德研究是短期研究的优先事项,呼吁伦理学家和AI专家共同合作。目前,人工智能的伦理反思越来越多地出现在科幻小说中。基于现有的人工智能理论和现有技术手段,成人智能系统的成功开发是不可能的。因此,人工智能的社会应用面临着伦理困境,更具有思想性和实验性。其背后是功利伦理或义务理论推理的模型。纪海清说,学术界有着自己的人工智能伦理特色。

例如,从思想史的角度,找出人工智能技术的思想背景,或者历史上类似的技术如何在社会化过程中引起问题,以及如何解决或解决这些问题。这可以用作预测结论的参考框架。伦理学家如何与人工智能科学家合作?徐应金认为,人工智能所涉及的伦理问题需要工业规划和哲学思维相结合。 “思想,语言和机器:维特根斯坦哲学与人工智能科学之间的对话。”他探讨了哲学与人工智能之间的相互关系。他认为,伦理学家需要熟悉经济学领域的决策理论、博弈论、统计。想一想这些理论的哲学前提,加强对人工智能主题的人文思考,并给予行业质量反馈和建议。

    上一篇:上海新丰彩色织造厂污水处理工程设计
    下一篇:项目管理模式