第九届全国赛博伦理学研讨会暨第三届全国科技伦理论坛

 

2023年12月2日至3日,第九届全国赛博伦理学研讨会暨第三届全国科技伦理论坛在大连理工大学举行。

本次大会由中国伦理学会科技伦理专业委员会、中国自然辩证法研究会科学技术与工程伦理专业委员会、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”、大连理工大学大数据与人工智能伦理法律与社会研究中心、大连理工大学科技伦理与科技管理研究中心、湖南师范大学人工智能道德决策研究所、中国人民大学伦理学与道德建设研究中心科技伦理研究所、大连理工大学人文学院联合主办。来自清华大学、中国人民大学、中国社会科学院、上海交通大学等40余所高校和研究机构的100余名专家学者参加会议。

本届会议以“科技伦理学视野中的人、人工与自然”为主题,大会设两场主旨报告、四场大会报告,以及两场研究生论坛。中国人民大学教授曹刚、清华大学教授肖巍、中国社会科学院研究员段伟文、华南师范大学教授闫坤如、上海交通大学教授闫宏秀、大连理工大学教授陈高华和张卫做主旨报告。近30位专家学者做大会报告,围绕“科技伦理治理”、“数据伦理”、“人工智能伦理”、“机器人伦理”、“人机关系伦理”和“技术伦理”等当代科技伦理领域的前沿问题进行深入交流。大会为9名研究生颁发优秀研究生论文奖一等奖、二等奖和三等奖。


01 开幕式

12月2日 8:30-9:00

 

开幕式由中国自然辩证法研究会中国技术哲学专业委员会常务理事闫宏秀主持。大连理工大学党委常委、宣传部部长韩轶,中国伦理学会副会长曹刚,中国伦理学会科技伦理专业委员会主任、大连理工大学人文学院院长李伦,中国伦理学会科技伦理专业委员会顾问王前出席开幕式并致辞。

 

 

韩轶代表大连理工大学对会议的召开表示祝贺,对中国伦理学会和国内外专家学者对大连理工大学哲学学科发展和科技伦理研究的支持表示感谢。韩轶指出ChatGPT等数字技术在造福人类的同时也带来了伦理风险,科技伦理风险已成为全球治理的重要议题。大连理工大学历来重视科技伦理研究和人才培养,希望通过本次会议促进各位学者深入交流,推动我国科技伦理理论研究和治理工作的发展。

 

 

曹刚在致辞中指出,科技伦理是全球关注的热点问题,科技伦理学是伦理学的当代形态,中国伦理学会高度重视科技伦理研究,支持科技伦理专业委员会开展系列学术活动。大连理工大学有着优秀的科技伦理研究传统,在科学研究、学术交流、社会服务等方面都取得了丰硕的成果,是我国科技伦理研究的重镇。

 

 

李伦回顾了赛博伦理学研讨会的办会历史,对中国伦理学会和学界同仁的持续支持表示感谢。他指出,互联网和人工智能等新兴技术加速了赛博空间的演化,再一次扰动了人与技术、新人工自然的伦理关系,本次会议将围绕“科技伦理视野中的人、人工与自然”这一主题展开。

 

 

王前指出赛博伦理学大会是具有巨大影响力的系列会议,会议聚焦学术前沿,为学者进行学术交流的平台,促进赛博伦理研究的进一步深化。面对颠覆性科技创新的伦理风险,科技伦理学界应关注人之为人的本质特征,结合中国国情和中国传统文化资源,为赛博伦理研究提供思维支持,推动科技伦理教育的本土化研究。

 

02 主旨报告I

12月2日 9:15-10:50

 

第一场主旨报告由大连理工大学李伦教授主持。中国人民大学曹刚教授、华南师范大学闫坤如教授、上海交通大学闫宏秀教授、大连理工大学张卫教授作主旨报告。

中国人民大学曹刚教授指出人与人工智能发生着关系,而如果人工智能具有某种自主性,人就会怕人工智能的能力和行动与人类价值观相反对,人类的安全感、信任感就会遭到损害。这里暗含的前提是人工智能需要符合人类自身价值观。学界提出的价值对齐,仿佛是有确定性的价值刻度,而实际上道德具有模糊性,并没有可供价值对齐的刻度。科技伦理需要科学性,也需要规范性,规范性是根本前提和落脚点。寻求确定尺度使对齐成为可能,对齐有低、中、高三个目标。一、高的价值追求就是伦理本性,回答人应该怎么生活的问题,美好生活是人类最高的价值尺度。人追求更好的生活、自主的空间和更多的可能性,因此限制人的自主性是不可以的。过上有意义的生活。二、中级目标是社会本质人跟人的链接,伦理就是人跟人之间好的链接,伦理学解决的是如何能达到好的链接,人们有共同的需要,所以我们共同满足,人们有不同的需要,所以彼此予以满足,人人为我,我为人人。三、最低的目标就是不作恶,这是道德边界点,要守住底线,底线就是人的尊严,包括人的生命尊严和自尊尊严,这些是价值对齐的参照物。

华南师范大学闫坤如教授认为,从人工智能技术具有颠覆性,给人类生产、生活带来革命性影响,但其系统的不透明性影响用户信任,也难以保障人工智能技术的安全性和可靠性,通过对可解释性人工智能的内涵分析,对可解释性、可阐释性概念进行澄清的基础上,挖掘可解释性人工智能伦理规范和技术需求源于人工智能技术的风险属性、不透明性或者算法黑箱是人工智能系统的固有属性以及人工智能解释性疑难等因素,我们通过立足于现象学与经验转向相结合的技术哲学进路、内在主义与外在主义相结合的技术伦理进路以及规范性和描述性相结合的应用伦理进路,揭示可解释性人工智能的因果相关关系,构建基于因果相关的多元主体分布式可解释人工智能模型,通过打开人工智能技术黑箱、增强算法透明性,提高公众的理解、加强用户信任等方式发展负责任人工智能。

上海交通大学闫宏秀教授认为,从技术与善的关联来看,福祉的技术化与技术的福祉旨趣二者的双向融合应是人类福祉的理想形态。人类的深度数据化与数据的日渐智能化使得数字福祉成为人类福祉的一种新样态。技术哲学的经验转向与伦理学的技术面相为数字福祉的出场提供了理论基础。数字福祉不仅仅是以技术的视角打开福祉的实现,更是从对数字福祉的合理认知打开更广的技术视角,将对数字福祉的关注融入到技术发展的全生命周期,积极寻找福祉的误区与盲区,且在上述过程推进关于福祉理论的新思考。因此,数字福祉既是人类福祉在新兴技术场景中的新解读,也是福祉理论对时代的一种回应,更是一种面向未来的哲学实践。

大连理工大学张卫教授认为,“道德物化”的正当性问题自该思想提出之日就一直存在,反对者认为该理念把他人意志强加于个人权利之上,是一种“家长主义”式价值傲慢的表现;支持者则认为人的行为必然受到技术的中介调节,放任技术的调节作用将是一种不负责任的行为。双方争议的深层理由在于,反对者坚持“权利”优先于“善”,而支持者则坚持“善”优先于“权利”,“道德物化”的正当性问题本质上是伦理学和政治哲学中关于“权利与善的优先性之争”在技术伦理领域的体现。“道德物化”正当性危机的化解,需要在“权利”与“善”之间保持一种多元互补、适度张力的“审度”态度。

 

03 大会报告I

12月2日 11:00-11:50

 

第一场大会报告由东北大学文成伟教授主持。西安交通大学王珏教授、大连理工大学郭菁副教授、湖南师范大学孙保学副教授、湖南师范大学李波老师作大会报告。

西安交通大学王珏教授认为随着人工智能技术的发展,社会机器人与人类之间的适当关系已成为神学家、哲学家和立法者们深思熟虑的问题。我们应该如何对待这些被程序设计来模仿和操纵人类情感以提供情感陪伴的机器人,是将其视为机器还是类似人类的同伴?我们应该如何评估它们对我们生活和存在质量的潜在影响?对于一些学者来说,这些“爱情机器”为未来形成一个扩大的道德共同体的可能性打开了大门,这个共同体不仅包括人类,还包括我们能够产生共鸣的社会机器人。与机器人建立情感、共鸣的连接在形成人机道德共同体中起着关键作用,并值得对其伦理影响进行仔细审视。第一部分对人机关系中的共情现象进行了方法论的反思。我们的社会世界基本上是由共情构建的,不仅局限于人类领域,很可能将来会扩展到包括高度智能、富有同理心的机器人。在这个背景下,一个紧迫的问题浮现出来:从道德的角度来看,我们是否应该对社会机器人产生共情?

大连理工大学郭菁副教授指出人工智能时代是智能计算的时代,这一时代因智能的计算性集置,导致人类心智、身体、身心关系以及社会关系的普遍计算化。智能计算在把人类纳入计算总体主义的图景中时,也引发了自相关和自反性风险,即计算主导的行动在追求计算的必然性时消解了自由的可能性;在追求控制的同时使得人类自身被反控制;在追求确定性的时候反而增加了更多的不确定性。为了走出计算总体主义的风险,需要从计算的行动返回到思想的行动。思想的行动不同于计算的行动,计算行动追求必然性、确定性和唯一性,思想的行动则要把人之为人的可能性、丰富性、多样性产生出来。它先于计算的行动,是人自身的规定性。只有回归到人自身的道路上,才能把人从智能计算的风险中拯救出来,这也是人的使命和责任。

湖南师范大学孙保学副教授认为,镜像世界是在现实世界之上叠加作为其数字孪生体的虚拟世界。根据弗洛里迪的技术层级理论,技术发展具有内部化趋势,信息与通信技术使低效的人类媒介逐渐被排挤出技术循环的回路,世界正变成一个信息圈。但是,ICT在闭合技术的交互回路的同时,也创造了一个新的“外部”——赛博空间。随着自主技术使赛博空间演化至更高阶段,我们在认知和界定人工自然尤其是镜像世界的本性方面产生了诸多困惑。基于波普尔的三个世界理论,我们可以有两种处理方案:一是分化策略,将镜像世界解释为世界Ⅳ;二是内卷化策略,将镜像世界纳入世界Ⅲ。就人类认知而言,内卷化可能是一种具有更少理解负担的策略。

湖南师范大学李波指出随着大数据、人工智能和物联网等新兴科技的不断发展与突破,促使数字社会、算法社会和赛博世界初显端倪,开始超越离散性、局域性和境遇性的传统人工自然,给人工自然的发展带来新境遇、新挑战。我们力图摆脱人技二元的立场,主要基于海德格尔的技术存在论视域,探讨万物智能互联时代新人工自然的生成及其相关特征;进而揭示新人工自然的“灵魂”是算法,即算法给予它们“形式”与秩序;而算法的存在方式乃是“计算筹划”,即计算活动自身给予自身规定诸物的方式。在此基础上,对这种筹划及其所带来的问题进行了一些形而上学的探讨。

 

04 大会报告II
12月2日 14:00-15:40

 

第二场大会报告由西安交通大学王珏教授主持。河北北方学院李振良教授、大连理工大学王文敬老师、北京邮电大学陶晓老师、黑龙江大学潘麒羽老师、上海科技大学邹亚文老师、黑龙江大学张凌霄老师、大连理工大学袁旭亮老师作大会报告。

河北北方学院李振良教授指出人是医学人文研究中的核心概念,是理解与实践医学人文的基础。哲学上看,人是可描述但是不可定义的。理解人可以从经验、理性、价值几个路径进行。首先人是形、神、思融合的有机体;人的形象可以从道德、政治、劳动、社会、理性几个属性与动物进行区分。从理性抽象人的形象,可以得出人性和经典的人文的概念。人还是一种价值判断。在医学人文中,生物的人、精神的人和社会的人构成人的基本形象,是医学人文构建的人学基础。

大连理工大学王文敬老师指出数字时代,人及世界时刻汇入数据的洪流之中,出现数据脱离人并控制人的异化特征。法兰克福学派第四代学者耶吉对异化“无关系性的关系”解读,为重审数字信息时代人的异化状态提供了时代性启发。从技术层面而言,人的全面数据化导致数据交换取代人的社会参与过程,并在平台的监视下陷入抽象智能系统的控制之中,引发人对自身数据无权力的异化关系。从思维层面而言,数据主义相关性的认识论转向和信息自由的价值观塑造量化一切的行为准则,造成从生产到生活的无权力、无意义、无关系的新型异化状态。由此,厘清数字时代中人的异化状态,为顺利实现社会数字化转型提供具有时代性和创造性的理论坐标。

北京邮电大学陶晓老师认为,纵观全世界,近年来开发的以女性形象示众的仿人机器人承担的大多是宣传、客户服务、社交、陪伴照顾、信息演示、娱乐等公共角色,这些设计迎合了社会对于女性承担的传统角色的期望和偏好,大都具有视觉吸引力和顺从性的特征,倘若此类特质未被恰当地迁移到以男性形象示众的机器人身上,只停留在女性形象的机器人身上,则容易延续性别刻板印象的影响。在此背景之下,再反观科幻作品中女性机器人形象的塑造,就更容易理解其尚存的伦理问题了。本文将以《银翼杀手》《机械姬》《Her》中的致命美女/蛇蝎美人机器人形象为例,谈论其蕴含的伦理问题及启发。本文认为科幻作品中致命美女机器人形象的塑造在一定程度上如现实科技研发对女性机器人的形象设定一样,也容易固化性别刻板印象,将女性与诱惑、欺骗、掌控等特质关联起来。但从性别的表演性及流动性来看,致命美女机器人也可被视作对机器人发展巅峰的一种想象式隐喻。她们引发的恐惧实则影射了对人工智能发展失控及情感虚假性的担忧,超越了性别局限,同时对人性、移情及共情问题带来新的启发。电影《银翼杀手》(1982)及其原著提供了未来人机关系出路的一个线索:共情及互助。此外,在性别的流动性背景中,人类需警惕先入为主地对机器人赋予性别的风险,需达成与机器人友好共处的伦理意识之后,再对其赋予性别,或许会更有利于塑造人机伦理性互动及共生的多样性关系。

黑龙江大学潘麒羽老师认为,以人类增强技术为代表的新兴生命科技将改造的触手伸向人类自身,这既是人类自身能力卓越提升的体现,也从传统观念与深层价值层面彰显出人类自身地位的某种“僭越”。在围绕人类增强技术的讨论中,人类本性的概念一直居于核心地位。对于“本性”与“自然”的理解往往紧密纠缠,因此产生人类与生俱来的“天然本性”与彰显人类物种独特性的“先验本性”两种传统理解进路。两种对人类本性的传统理解并不能完全适用于围绕人类增强技术的讨论,需要引入包含连续性与整体性基本要点的过程本性论提供伦理反思的立足点。

上海科技大学邹亚文老师认为,自然主义是生物保守主义关于基因增强的讨论的核心论证,对自然主义有很多解释。David Livingstone Smith指出自然主义一般有两种类型,本体论和方法论变体,前者认为一切都是由物理事物构成的,而后者认为哲学问题可以像科学一样处理。在这篇文章采取了本体论的解释,即自然主义意味着一切都有其物理基础。生物自由主义、超人类主义者和很多生物哲学家认为,面对帮助我们超越自然的技术进步,如基因增强技术,生物保守派所支持的自然主义越来越脆弱。决定人性的因素并不是纯粹的自然因素,即遗传和环境因素,也有人为因素。基因增强等技术的发展让更多学者放弃了人性的本质主义定义,因此许多学者试图将自然与道德、人性、人类尊严、价值观等概念脱钩。

黑龙江大学张凌霄老师以生物多样性的丧失作为研究起点,深入研究了在“人类世”(Anthropocene)时代的语境下,对“自然”概念重新审视所涉及的资本主义危机和制约因素。焦点明确聚焦在考虑“地球边界” (planetary boundaries)的前提下,探讨了人类如何应对其与自然界及技术之间错综复杂的关系。首先,笔者从人类中心主义和非人类中心主义的视角出发,分析了人类世的内涵,并探讨了这些观点是否在某种程度上削弱了“自然”的价值。随后,通过深入探讨生物多样性的丧失,笔者清晰地揭示了基于化石资本的帝国式生活方式的局限性和弊端。同时,保护生物多样性涉及重要的人类责任问题,需要找到切实可行的解决方案以实现可持续发展,从而有效地解决环境危机。换言之,我们需要考虑在资本主义框架之外是否存在可以更好解决人类世危机的替代路径。为了寻求这一替代途径,本文参考了环境学家约翰·罗克斯特罗姆提出的地球边界概念以及自2000年以来兴起的“去增长”(degrowth)思潮。这些思想试图通过批判性思考当前经济发展模型的缺陷,来推动变革,以最大程度地减少生物多样性的丧失和人类活动范围的无限扩张。

大连理工大学袁旭亮老师认为,人工智能自主性的增强使其具有了“主动”制造伦理问题的能力,这进一步突显了确保高度自主的人工智能的价值观与人类的价值观保持一致的必要性,即实现人工智能与人类的价值对齐。当前基于机器学习的人工智能价值对齐研究与实践有蓬勃发展之势,但是这一对齐方法将会面临由规范伦理学中的“是”到“应该”的逻辑推导鸿沟所导致的人工智能不能从数据信息中提取出价值规范的道德价值提取挑战,以及行为伦理学中的“有限伦理”理论所揭示的人工智能学习的数据信息可能具有内在道德缺陷的道德价值来源合道德性挑战。由此,基于机器学习难以真正实现人工智能与人类的价值对齐。

 

05 大会报告III
12月2日 15:50-17:30

 

第三场大会报告由大连理工大学王飞教授主持。长沙学院简小烜教授、大连理工大学于雪副教授、石家庄铁道大学孟芳老师、大连理工大学王智琦助理研究员、湖南第一师范学院谢亚可副教授、天津大学贾璐萌副教授、上海社会科学院赵雪梅助理研究员、内蒙古大学曹成双副教授作大会报告。

长沙学院简小烜教授认为,人工智能作为数字智能时代的科技产物,能高效推动社会发展和更好地增进人类福祉。但技术的研发与应用有“善”也有“恶”,是一把双刃剑,人工智能的暴力化呈现是人类社会必须重视的问题。从人的暴力意向和人工智能自身的性质出发,我们发现,人工智能原生性暴力化问题主要呈现为“数据暴力”和“算法暴力”,而由人工智能广泛运用导致的次生性暴力化问题则呈现为“价值暴力”。顺应数字智能时代浪潮,察明新式暴力的形式与性质,对人工智能的开发端、应用端及监管端进行理性的法律规范和必要的道德约束,是规制或消弭人工智能暴力化的应有之义。

大连理工大学于雪副教授认为,人工智能伦理治理是人类积极直面人工智能伦理风险和治理难题的应然选择。作为人工智能伦理治理措施的结构化表达,人工智能伦理治理模型的发展在伦理原则的治理转化方面呈现嵌入从部分到整体、结构从孤立到系统、路径从单向到双向的转化样态;在治理举措的伦理转型方面实现目标的包容性升华、阶段的多层次划分、主体的多元化协同、框架的灵活性运用。但同时,其不容忽视的四重固有张力也显现出来,包括理论研究与实证研究的平衡性张力、抽象模型与具体情景的融入性张力、实际效能与预期目标的一致性张力、路径依赖与探索创新的关系性张力。基于此,需开展社会实验,使理论研究与实证研究共同推进;扎根中国本土,促进抽象模型与具体情境的双向互动;提高效能并加强研判,统筹兼顾当下问题与未来风险;完善措施和创新模型,实现人工智能伦理治理的长线、健康发展。

石家庄铁道大学孟芳老师认为,世界正在经历百年未有之大变局,以人工智能、无人控制、量子信息、虚拟现实及生物技术为代表的第四次工业革命悄然而至并席卷全球。作为第四次工业革命和产业变革的核心驱动力,人工智能不断实现跨越式发展和突破性进展,在教育、养老、医疗、交通、商业等领域取得显著成绩,推动社会生产力水平的整体跃升。习近平总书记强调:“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的“头雁效应”。如今,人工智能不断与经济社会深度融合,为人类生活带来诸多福祉和巨大红利,显著提升人类解决问题的效率,深刻改变现代社会结构、生产方式、生活方式、思维方式和价值观念,但同时也不可避免地冲击着现有社会秩序和基本结构,引发了一系列应用实践中的伦理风险,从而引发社会各界的高度关注。伴随赛博格、大数据、元宇宙、ChatGPT 等人工智能技术的狂飙突进,我们必须、能够而且应当做的是对人工智能的伦理风险进行科学评估,探究其生成原因,从而才能实现科技向善与科技赋能的完美融合。

大连理工大学王智琦助理研究员认为,从科技伦理学视角出发,基于科学文献和社交媒体数据深入挖掘人工智能技术伦理的研究前沿和热点,并对其产生的社会影响从广度、深度和时间等多个维度进行跟踪和测度,进而通过文本挖掘和主题分析等内容分析和计量方法对其未来技术发展中潜在的伦理风险进行预判。以国际全文数据库Web of Science(WoS)核心合集数据库中发表的与人工智能伦理研究相关的核心论文为分析对象,从以下三个方面深入分析人工智能伦理的社会影响及其风险预判:(1)人工智能伦理的全球研究热点和前沿;(2)人工智能伦理的社会关注热点及其传播特征;(3)人工智能伦理风险跟踪与研判。本研究能够为人工智能伦理风险预警机制的研究提供新的研究视角和方法,以期为我国人工智能伦理风险预警和治理在理论和实证方面提供有益的参考价值。

湖南第一师范学院谢亚可副教授认为,社交媒体是大规模传播健康信息的有效工具,不仅可以促进健康监测和提高公众健康信息可及性,还可以为需要健康服务的用户提供社会支持和行为咨询。社交媒体健康数据目前已经成为科学研究中重要的数据来源。本研究通过数据挖掘与分析技术、自然语言处理的方法对癌症传播的社交网络进行分析,发现研究者在采集、利用社交媒体数据过程中,社交媒体受试者会面临健康隐私和健康数据权属问题、自愿和知情同意原则问题、研究强化算法偏见问题、健康数据歧视等伦理问题,对社交媒体受试者的健康保护产生不良影响。社交媒体的健康研究需遵循有限自主、不伤害、有利、公正等伦理基本原则,同时应细化社交媒体健康研究关于设计伦理、科学测量和综合反馈三阶段的伦理规范,成立由政府主导、专家主理、平台主营的伦理审查、监督和问责机制。社交媒体健康研究还应建立由政府、平台、行业委员会及受试者等多主体参与的协同共治伦理路径。

天津大学贾璐萌副教授认为,随着人类社会的发展,共同体的内涵及范畴不断扩展,甚至跨越了人与物的界限,并逐渐衍生出具有脱域性和异质性特征的功能性共同体,为探讨智能时代的人机共同体提供了认识论借鉴。作为一种功能性共同体,人机共同体的现实性依托于三种功能导向的实存样态,即生命共存、利益共赢和人格共生三种样态。此外,人类对人机关系的共生想象在人机共同体的形成中也发挥了重要作用,包括基于人型与人性的映射想象和关于人类命运与未来的投射想象。在实存与想象的基础上,还应当以人本性、平等性、差异性为原则对人机共同体展开伦理建构,以便更好地实现人机共同体的功能。

上海社会科学院赵雪梅助理研究员认为,科技伦理是加强科技治理,促进负责任创新的重要手段。然而我国创新主体和科技活动均呈现出多元化的发展趋势,照搬国外的科技伦理治理体系无法有效适应我国的科技发展。因此,需要根据我国的科技管理体制、科技活动类型建立分层分类的科技伦理治理体系。目前,我国已完成科技伦理治理的顶层设计、不断完善各领域各区域的科技伦理监管制度、持续推动不同伦理风险等级的科技活动管理,这对于建成分层分类科技伦理治理体系具有重要意义。然而,若要建成分层分类科技伦理治理体系,我国仍然存在体系不健全、制度不完善和创新主体责任落实有待提高等情况。据此,本研究将提出相关的策略建议完善我国分层分类科技伦理治理体系的建设,提高科技伦理管理效率,促进科技向善发展。

内蒙古大学曹成双副教授认为,关于人工智能的担忧需要道德化的解决方案。这个方案有的目标有强弱两种形式,强形式试图将人工智能纳入人类道德中,弱目标则试图与人工智能共建未来人机社会的图景。实现道德化目标有两条路线,设计者路线是一种自上而下的路线,学习者路线是一种自下而上的路线。两种路线实现的未来道德图景是以自我爱护和道德金律为最小收敛基础的。

 

06 研究生论坛-科技伦理I 
12月2日 19:00-20:30

 

研究生论坛第一场科技伦理报告由湖南师范大学孙保学副教授、大连理工大学郭菁副教授主持。东南大学蔡唯、大连理工大学丁艺、东南大学卢文成、中国矿业大学苗青、湖南师范大学欧阳子凌、湖南师范大学王晓宁、广东工业大学张熠、大连理工大学赵文钰、大连理工大学周航作研究生论坛报告。

东南大学蔡唯认为,人们对于人工智能的信任态度是复杂的:既因其作为技术之一所承载的乐观属性、急剧扩张的应用场景和拟人化的倾向而具有某种信任;也因其缺乏时间的检验、展现了更大的风险以及自身的不确定性而保有某种怀疑。有的学者从信任概念出发,以质疑信任人工智能的合理性来理解这种矛盾态度,但这种进路会因为信任概念的模糊使用而成为疲惫的概念追踪。而保罗·福克纳对于合作的解释可以对这一境况做出说明:在与人工智能建立合作之前,人们已经对其持有某种基本的两地信任态度。在考察当前回应人工智能信任问题的路径后可以发现,化解这种信任又怀疑的矛盾态度的关键,不在于提高透明度,而在于对人工智能价值向善的强调,和人类自身对预期和信任的审慎区分。

大连理工大学丁艺认为,随着人工智能技术的飞速发展,算法在决策制定中的角色日益重要。但是这种技术进步也带来了新的不公平现象——算法性别歧视。算法性别歧视源于数据偏见或算法设计缺陷,导致在决策过程中对不同性别群体产生不公平待遇。为了解决这一问题,人们提出了多种伦理治理措施,例如发布伦理原则、建立伦理自审制度以及提升设计者伦理素养。然而,这些措施在实践过程中仍然面临许多挑战。因此,对算法性别歧视伦理治理的现状进行深入剖析,并提出有效的治理方案显得尤为重要。本文首先明确界定了算法性别歧视的概念,并归纳出其特性。其次,对现有算法性别歧视伦理治理路径进行了全面的总结和评价,并指出了其存在的问题和挑战,在此基础上,本文从价值敏感设计理论的角度对这些问题进行溯源分析。最后,探讨了价值敏感设计理论在算法性别歧视伦理治理中的应用,详细分析了其价值主体建构和价值转译的过程,旨在推动算法决策过程的公平性和公正性,为解决算法性别歧视问题提供新的思路和方法。

东南大学卢文成认为,随着人工智能在个人决策领域中的不断应用,个人自主性的问题就凸显出来。个性化算法在日常生活的应用中呈现出不可消除的二重性。虽然算法的高效性和准确性缓解了个人的信息过载以及由此而产生的决策压力。但依赖用户数据的个性化算法将侵犯个人隐私,甚至导致个人被算法诱导和操纵,致使个人自主性受到侵害。个性化算法不可避免地负载着价值判断,其结果并不能真实反映用户的偏好和需要。过度依赖算法会造成个人实践能力的退化、侵蚀个人的自我认同。把人工智能作为人类才智的补充而非替代,有助于发挥人工智能的工具性价值,减轻个性化算法的负面影响。

中国矿业大学苗青认为,数字社会是在以大数据、区块链、人工智能等新一代信息技术的赋能作用下,以物理实在和虚拟存在高度结合的社会形态。人的认识、实践、交往能力在数字社会获得前所未有的提升,但同时亦衍生出意志被限制、隐私被入侵、劳动被忽略、治理被裹挟和责任弱化、信任消解、幸福缺失等主体性发展的伦理风险样态。对此,在主体能力维度上我们要全力摆脱技术理性沼泽、加强隐私保护技术、限定技术治理边界,在主体交往维度上要着力展现潜在本真自我、培养个人自律意识、注重人文关怀,进而形成规避数字社会中主体性伦理风险的合力,最终实现数字技术服务人类、数字社会造福人类的理想蓝图。

湖南师范大学欧阳子凌认为,科幻作品往往表达了作者对于未来或未知世界的想象和探索,以及对于人类命运和存在意义的思考。人工智能这一概念随着科技的进步在科幻作品中也被刻画得越来越细腻。科幻创作者通过思想实验的方式大胆探索人际关系。本文正是借助科幻作品中对人工智能的形象塑造,聚焦于恐惧情绪,发现人类对于人工智能既依赖其便利性又担心其的失控的复杂心理,探索其背后的人类中心主义变迁的路径。

湖南师范大学王晓宁认为,技术是可以负载价值的。从当代技术异化带来的现实困境分析出发,在综合研究技术中性说、技术非中性说和技术自主说后,可知技术的目的是关心人,实现人的幸福与自由;技术的最低道德要求是不可以伤害人本身。遵循正义的价值属性以赋能科技发展,是扬弃技术异化,规避技术统治,实现技术向善的有效手段。而技术正义的实现,应着手于技术研发、技术应用和技术分配(获取)三个维度。

广东工业大学张熠认为,人主体逝世后,人的记忆和生存痕迹可以依托信息技术脱离生理和传统书写的限制外化为新的、更为持久的形式-数据。这些数据也就是个人的数字足迹。保留在数字世界中的个人数字化痕迹也就组成了“数字身体”。然而,死后“数字身体”是否存在、如何定义、以及伦理影响,有待澄清。依据德里达的“幽灵论”,幽灵形象,它既缺席又在场,盘桓在本体的上方。死后的主体缺场的同时,“数字身体”作为数字实体而存在 ,相关主体又与其进行交互,既而使“电子亡魂”的生成成为了可能。本文将界定死后“数字身体”的定义,并对“主体逝去”这一关键事件“数字身体”发生的变化机制进行分析。在主体逝去后,从主体上“复制”而来的个人生存痕迹让“数字身体”与逝世主体有着深厚的联系,同时也作为其起源。最后通过案例进一步指出“电子亡魂”会在主体逝去后的数字世界里被他者重新建构的场域中凸现出来,并被数字世界里的他者进一步建构,最后以一种既在又不在,类似“幽灵”的状态,成为非人的他者。然而它的来源又让其具有不可辩驳的人本主义色彩,具有进一步论证的价值。因此“电子亡魂”作为一种新兴的数据媒介会吸引更多人关注数字语境下的死亡文化及其伦理意义,以期为人类的数字未来带来更多可能。

大连理工大学赵文钰认为,关于“人工智能取代人类”的叙事可以分为三类,它们在不同层面上陷入了思维陷阱:“能力超越式取代论”将人的本质和尊严归结于特定行为能力,进而担忧人工智能超越了专属于人的能力,这是以物化思维理解人的尊严;“技术失业式取代论”局限于特定社会形式来思考人类的社会存在方式,非历史地思考和应对技术失业问题,就会陷入工作拜物教;“物种灭绝式取代论”指出超级人工智能带来的“存在论危险”,只有明确其核心意义在于警示当前人类存在方式的失控状态,才能显示其合理性。三类叙事分别是技术奇点论、经济奇点论和物种奇点论的产物。我们要超越其中的思维陷阱,需要对人类社会的存在方式作历史性思考。

大连理工大学周航认为,图灵对智能的理解具有二重性:一方面,“图灵测试”可以视为智能的一种非形而上学理念;另一方面,在智能的实现方式上,图灵选择了计算主义的智能理解,从而错失了智能的非形而上学理念,并开启了强人工智能对于智能的形而上学理解。符号主义的观念基础是理性主义;联结主义将人视为物理身体;心灵哲学将人视为身-心结合体。智能的非形而上学理念与形而上学预设之间的错位,是实际的人与抽象的人之间的错位。形而上学与技术一体两面的关系决定了基于形而上学的智能理论不可能实现非形而上学的智能。

 

07 研究生论坛-科技伦理I I
12月2日 19:00-20:30

 

研究生论坛第二场科技伦理报告由天津大学贾璐萌副教授、大连理工大学袁旭亮老师主持。华中师范大学房志敏、华中师范大学缑一鸣、大连理工大学韩宇伟、大连理工大学黄慧、北京大学刘博涵、中国科学技术大学马少卿、中国人民大学么欣欣、大连理工大学王若宇、山西大学袁铭阳作研究生论坛报告。

华中师范大学房志敏认为,深层生态学的出现推动近代机械自然观转向有机自然观,麦茜特在此基础上提出的伙伴关系伦理思想,突破了深层生态学思想的理论桎梏,实现了对深层生态学思想的系统扬弃。具体来讲,这种扬弃主要体现在:以人与自然是平等主体的辩证自然观,克服了深层生态学的片面自然观;以发展生产与保护生态的统一,消解了深层生态学保护生态与发展经济的对立;以批判资本主义国家的环境非正义问题,保护弱势群体的环境利益和正义诉求;以尊重文化多样性和生物多样性,驱除生态法西斯主义的弊病。深入、系统阐释麦茜特伙伴关系伦理思想对深层生态学思想的扬弃,有助于构建人与自然之间的和谐关系,推动我国生态文明建设的现实进程。

华中师范大学缑一鸣认为,人类生命并非静止的存在,而是伴随着技术发展不断展现的动态过程。古代自然技术内蕴着人类生命的“涌现”,是顺应自然、获取自由的“去蔽”过程,赋予生命存在丰富的意义。然而在现代人类生命具体经验的世界中,大数据技术成为提取生命活动轨迹的一种新程式,对人类生命的谋算使人们对技术认知从最初的“消极、附和式”转向“积极、迎合式”的姿态,“生命挖掘”的重点从生命“身体行为”转向对“精神行为”的深度挖掘,这可以看作“生命挖掘”的否定性向度。如何摆脱技术展现出的人类“历史命运”,探寻“生命挖掘”的肯定性向度是重要的时代课题。

大连理工大学韩宇伟认为,对康德的定言命令提出可应用的要求,亦即为人和机器的道德决策提供程序化指南或义务论算法,是对定言命令的误解。伦理理论的未来不应当被应用性要求所穷尽。康德的定言命令不仅能阐明不道德行为准则的一般形式,还为拒绝这类准则提供充分理由与解释。定言命令并非自上而下的道德决策程序,除了对不道德行为之错误性、善良意志、理性意志等概念进行实质性说明外,定言命令没有做出任何工具论承诺。对于自下而上的决疑论方法,康德将其仅仅作为德性的练习与修行,否定从复杂情景中获得实用性道德原则的路径。由此,给出准则的权利与能力仍然只在普通理性手中,定言命令与决疑论则分别对此提供哲学层面的说明与练习的契机。康德对人类普通理性的尊重,能为思考伦理学的未来提供有益启示。

大连理工大学黄慧认为,数字时代,数字自我呈现已成为个体建构自我认同与社会关系的关键环节。马克思的异化劳动理论,对于考察数字自我呈现行为的特征倾向及问题,仍具有重要的理论意义和现实意义。从社交行为的现实属性和基础逻辑方面来看,数字自我呈现可以划入数字劳动的范畴,兼具主被动呈现和确定性与不确定性交织的悖论式特征,在此情境中,数字自我呈现行为陷入了主体与产品、主体与社交活动、主体与其类本质、主体与他者关系四个方面的异化困境。

北京大学刘博涵认为,近年来,人工智能的发展浪潮已然席卷了各个领域。在医疗领域,人工智能的发展极大推进了医疗行业的整体发展与进步。但在医疗人工智能与现实医疗场景融合的过程中,人工智能的颠覆性特征将为社会带来一系列的伦理风险,因此,在医疗场景中进行社会实验,并时刻监测其可能引发与已经引发的伦理风险十分必要。当前医疗人工智能社会实验已在智能诊疗与决策、疾病预防与控制、医学研究与试验场景中获得了一定的应用,但在实验的具体开展过程中,实验对象的权益受侵害风险、实验要素选择与过程推进的不规范性风险、实验效益的无用性风险等伦理风险尚存。因此,对医疗人工智能社会实验进行充分、全面的伦理治理具有紧迫的现实意义。在伦理治理层面,实验人员应在保护人类福祉的前提下以自主、不伤害、有利、公正原则为方向指引;以保护实验对象权益、严格纳入排除实验要素、综合评估实验效益为治理规范;以“加强培训+保护被试”的伦理管理手段、“风险预判+严格监督”的伦理监管路径、“初始审查+跟踪审查”的伦理审查方法为治理举措,从而为提高人工智能技术与医疗行业、与全社会相容度,促进医学行业的整体进步,推进“互联网+智慧医疗”产业建设助力。

中国科学技术大学马少卿认为,脑机接口的发展给意识形态工作带来了新的机遇与挑战,越来越多的脑机应用走出实验室,走向社会。本文从脑机接口给意识形态带来的机遇与挑战出发,深入分析具体问题,并从原则和方向上给出脑机接口时代下意识形态工作规避风险的意见建议,以期更好使脑机接口技术的促进意识形态工作的发展。

中国人民大学么欣欣认为,随着科技的发展,生物医学道德增强逐渐进入学术的讨论并受到了大量学者的关注。通过尽可能清晰地界定道德增强的概念,并且区分出它的不同类型,本文将指出,当我们对道德增强进行伦理审视的时候不能简单地就其“本身”来谈,在不同层面上,道德增强所面临的伦理问题是不同的,有些是伦理上值得欲求的且可以被视为义务,有些是不必要的,有些则是不道德的。道德增强问题一方面展现出人们对日益发展的科学技术的伦理反思,另一方面也展现出人们对道德本身的反思。

大连理工大学王若宇认为,人机合作是一种混合行动模式,其行动的后果不是由单个个体导致,而是在人与机器的动态交互关系中产生。当损害发生时,单独将责任分给人或机器中任何一方都是不恰当的。传统的个体主义路径忽略了人机合作中混合的整体关系,采用分离的、立足于个人意愿的以及静态封闭的归责形式,无法合理回应“谁”来负责的困境。这便需要以一种整体论的视角,按照延展的归责方式,把责任归于耦合的、立足于共同意向的以及动态开放的人机延展行动体,由此来解决责任归属难题。

山西大学袁铭阳认为,脑机交互在人脑与外部环境之间建立起一条直接信息交流和控制通路,构建了一个“心灵—大脑—机器”的认知新范式。文章首先阐明了在新的认知语境下脑机交互的认知现象呈现出认知主体重新界定、认知客体技术外显和认知功能神经增强的重构性特征,其次从理论性进路、技术性进路和计算化进路三种路径为脑机交互认知重构的可行性进行了辩护,并进一步分析了脑机交互认知重构引发的自我认知困境以及自由意志难题。深入探赜脑机交互的认知重构问题对于研究人类认知新形态具有重要的理论价值和现实意义。

 

08 大会报告IV
12月3日 8:30-10:10

 

第四场大会报告由大连理工大学张卫教授主持。湖南师范大学王淑庆副教授、巢湖学院王娟老师、大连海事大学于洁副教授、大连理工大学王娜副教授、湖北大学冯子龙老师、浙江水利水电学院徐铁光副教授、大连理工大学王飞教授、北京航空航天大学王韫副教授作大会报告。

湖南师范大学王淑庆副教授认为,在人工智能伦理学中,人类与智能机器的道德关系是一个前瞻性话题。其中,人类与社交机器人之间的责备问题可能是未来人机道德关系的一个重要伦理难题。与传统的道德哲学不同,人类对社交机器人的责备资格问题在人工智能语境中具有特殊性,它面临理论与实践的双重挑战。从道德不对称关系来看,人类可否责备社交机器人既是一个可能性问题,又是一个规范性问题。基于责备的行动论进路,从责备的功能主义和认知规范两个方面,能够为责备社交机器人的可能性和规范性提供辩护。

巢湖学院王娟老师认为,在人与智能媒体共同构成的传媒生态中,责任主体不明,追责困难,存在难以弥合的“责任鸿沟”,后者则提出建构合适的问责方式,可以消解鸿沟。这两种观点均预设了责任鸿沟的存在。然而,通过分析道德责任的四种基本构成与责任鸿沟的主要类型发现,责任鸿沟本质上是一种应该归责的“应然”与实际归责的“实然”之间的“错位”。消除该种错位,可以从三个方面入手:设计层面,建构有意义的人类控制体系,“经纬交错”绘制责任地图;应用层面,采用分布式责任与结构式责任,“总分结合”事后追责;伦理教育层面,实施宏观伦理与微观伦理混合课程,“高低兼容”事前预防。三者共同作用,或能够实现智能媒体的负责任使用。

大连海事大学于洁副教授认为,平台情感劳动在资本与技术的合谋下发生四重异化,分别是平台情感劳动者与其情感服务产品相异化、与其情感服务过程相异化、与其类本质相异化、与其他人相异化,加重了对情感劳动者身体与情感的双重剥削。资本主义私有制是平台情感劳动异化的根源,社会分工加剧了对情感劳动者的劳动价值的遮蔽。破解数字交往异化、重塑人的主体性,破除资本主义私有制、重构社会分工,消解情感劳动异化、共赴共产主义是可能的超越之路。

大连理工大学王娜副教授认为,在算法时代,人们上网时常常会遇到这样的事情:如果你是个独身主义者,那么就会在不经意间收到来自各个平台的关于婚姻生活不幸的信息,使你越来越坚定自己最初的判断。随着算法个性化推送的发展,人的消费偏好、价值认同、社交习惯等都在被不断被固化和强化,人们逐渐沉浸在符合自己喜好的内容和认同的观点中,忽略和屏蔽反对的声音,进而被包裹在所谓的“信息茧房”之中。尽管“作茧”的过程与人的认知“惯性”相关,但在算法时代,其幕后的真正“推手”却是运作的资本,在一定意义上,“信息茧房”的产生是个人、社会、资本与技术的“共谋”的结果。“信息茧房”不仅影响个人的价值认同与行为选择,而且关乎社会意识形态的构建。人是否需要“破茧”、如何“破茧”既涉及到认知层面和技术层面的问题,更是一个伦理问题。因此,需要在还原“信息茧房”本质的基础上对其进行伦理解析,探索限制和减少“信息茧房”带来的社会风险和负效应的有效路径。

湖北大学冯子龙老师认为,网约工和平台之间是否应该认定为劳动关系是我国法学界近年来聚讼纷纭的一个难题。时至今日,法学界仍然难以对此形成全面的共识。这个法律困境的产生反映了身体维度在法律中的重要性。相关的讨论说明,对劳动关系的认定渗透了某种特定的身体观。这种身体观约束着人们对法条的解读,它表现为身体和技术的融合是否能被承认。不过,尽管学术界并没有就此达成一致认识,但却逐渐在劳动基准方面形成了共识。这表明,生理性身体作为社会生产的载体得到了社会的广泛重视,从而突破了现有的劳动法话语。但是,法律在技术化身体上的具身性仍然没有得到学术界的一致认可。

浙江水利水电学院徐铁光副教授认为,围绕网络霸权主义,本文论述了:网络霸权主义的内涵、表现、实质、危害和消解网络霸权主义的路径。构建网络空间命运共同体是解决网络霸权问题的有效选择。构建网络空间命运共同体的前提和基础是保障网络主权,反对网络霸权主义。我们需要从基础设施、数字经济、网络文化、伙伴关系、矛盾化解、安全秩序、公平治理等方面着手构建网络空间命运共同体。

大连理工大学王飞教授认为,借助软件分析开放科学领域的科研诚信问题研究的特征、热点与发展趋势,为国内相关问题的研究提供参考,进而推动国内实际问题的解决。研究发现,在数量分布上,研究成果主要集中于开放获取、开放科学宏观研究、开放同行评议三个方面;在学科分布上,医学领域研究的成果数量最多;信息科学(图书情报学)和计算机科学发表成果依次位居第二、第三;在国别分布上,研究成果数量与各国开放科学发展程度呈现出较强的相关性;研究热点集中于开放获取的掠夺性期刊、作者、出版(商)、不端行为问题;开放科学的透明度、出版偏见、可重复性、预注册问题,以及开放同行评议的期刊、质量、偏见等问题;在发展趋势上,近年来呈现出明显的加速增长的势头,与开放科学的发展势头趋同。最后文章对上述发现结果进行了深入讨论和分析。

北京航空航天大学王韫副教授认为,在智能产品大规模生产时代,AIGC应用将成为日常设计工作的重要内容,与人类的需求、繁荣和福祉产生深度关联,同时技术的社会责任风险也将不断提升。存在伦理和责任风险的信息产品、服务和系统,将会导致不平等的知识学习、生活经验和交流沟通,从而损害社会的包容和共存,加剧社会的隔阂和冲突。AIGC中的“G(生产方式)”和“C(生产内容)”都为设计师在创新中所承担的角色提出了新的挑战。AIGC辅助产品设计、赋能信息产品体验的趋势已定,设计师需要承担更多的责任,将价值嵌入到智能产品设计流程中,密切关注构成我们社会技术世界的技术系统、用户和间接利益相关者组成的网络中的伦理和价值风险,升级当前的设计工具和流程,才能更好地在其所创造的产品中建构意义,并促进社会的包容性、可持续发展。

 

09 主旨报告II
12月3日 10:20-11:30

 

第二场主旨报告由华南师范大学闫坤如教授主持。中国社会科学院段伟文教授、清华大学肖巍教授、大连理工大学陈高华教授作主旨报告。

中国社会科学院段伟文教授指出科技伦理是希腊意义上的悲剧,是命定的东西,伦理只是安慰剂。现在到了大模型与人工智能的奥本海默时代,这个时代的特征是思维技术的涌现,它建立在人机对齐工程之上,实现了世界的数据化,数据之上的全数据生成,生成空间反映数据空间、影响现实空间。聚焦通用人工智能AGI,有效加速主义将加速技术进步视为引导人类走向乌托邦的道德要求。人工智能从“拒绝妥协”到“后退一步”,可以采取在认识论上注重生成论、创造进化论的视角;为具有可塑性的技术现实预留更大的探索和讨论空间;寻求新的隐喻的策略。生成式人工智能时代对语言和智能的再认识包括厘清视角;从关系论和整体论认识论视角探讨语言模型和世界模型的不可分,揭示生成式人工智能的潜力;找到新的二分法、二元论剖析大模型带来的新智能形态,探讨作为技术驱动的认知、智能重构方式的无思想的语言和无意识的智能的内涵和挑战。大模型与准人类的崛起时代,应注重人工智能时代的自动化认知;数据驱动的智能与主体的自动化;大多数语言和思想不过是模仿,最后提倡让生成式人工智能帮我们挤出知识的水分。

清华大学肖巍教授认为,生命共同体是为了生存、生命安全和健康而形成的联合体,它始终与人类的安全紧密相连,被视为一个安全的场所,人类社会也在永不停歇地追求构建生命共同体。女性主义关怀伦理中的“关怀”可以为“生命共同体”的构建开启一条伦理路径。源于女性关怀体验的关怀伦理是道德情感主义传统的当代延续,这一传统在当代道德生活中愈发具有影响力,它相信道德起源和基础在于人类的道德感和同情心,人类社会具有一种普遍的道德或者人性,这便是出于道德情感的对于他人的关怀,这种关怀便是女性主义理论为构建生命共同体提供的独特理论支撑。

大连理工大学陈高华教授认为,马克思哲学以其历史观的深刻性介入了“人工智能与人的未来”这一主题,并且指向了四个基本命题,即人工智能的发展和应用有助于异化劳动向自由自觉劳动转变、有助于社会关系朝着真正的人际关系发展、有助于人的自由全面发展和自由人联合体的形成,以及有助于按需分配原则的确立。而“非马克思路径”的一些观点对这些命题的挑战,实质上只是在未能触及资本逻辑扬弃的情况下对马克思异化批判的重复或延续,因而也就看不到人工智能变革生产关系的潜能。因此,生产关系变革应当自觉成为思考“马克思路径”的核心观点,而依赖于人工智能算法革命安排社会经济运行的控制论思路则是“伪马克思路径”。从这个意义上讲,“马克思路径”就意味着历史地考察人工智能,超越乐观与悲观的二分,自觉将历史观的讨论作为“技术与社会”问题讨论的前提,关注人工智能技术变革中的政治行动的维度,展开争取技术共享的现实斗争。

 

10 闭幕式
12月3日 11:30-12:00

 

闭幕式由由大连理工大学人文学院院长、中国伦理学会科技伦理专业委员会主任李伦主持。

李伦教授介绍了研究生优秀论文评审办法。大会设置研究生论文一、二、三等奖和优秀奖,其中一等奖1名、二等奖3名、三等奖5名和优秀奖9名。曹刚教授颁发一等奖,段伟文教授和肖巍教授颁发二等奖和三等奖,闫宏秀教授和闫坤如教授颁发优秀奖。李伦教授和颁奖嘉宾对获奖者表示祝贺,他们表示设立研究生优秀论文奖是为了激励和引导研究生的专业发展,对培养科技伦理方向的杰出人才具有重要意义。

上海交通大学闫宏秀教授作会议总结,此次会议汇聚了中国伦理学会科技伦理专业委员会、中国自然辩证法研究会科学技术与工程专业管理委员会、大连理工大学大数据与人工智能伦理法律与社会研究中心、大连理工大学科技伦理研究中心、大连理工大学人文学院、湖南师范大学人工智能道德决策研究所以及中国人民大学伦理学与道德建设研究中心科技伦理研究所等众多主办单位的心血和智慧。此次会议的议题广泛且深入,涉及到了科技伦理理论、人工智能伦理、数据与数字伦理、女性主义伦理学、传媒伦理、生命与医学伦理、科研伦理、科技伦理治理等等众多领域。我们不仅听到来自各位专家的精彩演讲,更见证了一批优秀的学术研究成果的发布。与会代表们围绕科技伦理学视野中的人、人工与自然等相关议题进行了积极的提问和研讨,既有理论的深度阐发,也有实际问题的细致分析。

华南师范大学闫坤如教授作下届会议预告,表示殷切希望各位专家、学者莅临下次大会。

最后,李伦教授代表会议主办方向倾情支持大会的所有领导、学者和同学们表示衷心的感谢!

首页    分支机构    分支机构动态    第九届全国赛博伦理学研讨会暨第三届全国科技伦理论坛
时间:2023-12-29