人工道德主体应当满足的两条基本原则
【摘要】:在人机交互中,为了避免智能机器伤害人类,一种理想途径是构建道德上值得赞赏的人工主体。尽管智能机器能否成为道德主体目前还存在很大争议,但有必要对之进行哲学论证以及探讨其应当满足的基本原则。完满的人工道德主体可能需要满足诸多原则,然而有两条是中级人工道德主体不能忽视的:第一,不允许主动伤害其他主体;第二,不应当漠视正在发生的伤害。在伦理嵌入的实践进路意义上,论证这两条原则对于中级人工道德主体是可能且必要的。最后,基于人工能动性的建模思路,提出人工道德主体应当具备进行确保推理和尝试推理的能力。
【相似文献】 | ||
|
|||||||||||||||||||||||||||||||||||||||
|
|
|||||||||||||
|
|
|||||||||
|
|
|||||||||||||||||||||||||||||||||||||||||
|
|
|||||
|