|本期目录/Table of Contents|

[1]喻国明,金丽萍,刘佳颖.大语言模型下机器的幻觉与人机信任构建机制探讨[J].未来传播(浙江传媒学院学报),2025,(02):2-10.
 YU Guo-ming,JIN Li-ping & LIU Jia-ying.The Impairment and Restoration of Human-Machine Trust Induced by Large Model Hallucinations and the Recalibration Mechanism[J].FUTURE COMMUNICATION,2025,(02):2-10.
点击复制

大语言模型下机器的幻觉与人机信任构建机制探讨()
分享到:

《未来传播》(浙江传媒学院学报)[ISSN:2096-8418/CN:33-1334/G2]

卷:
期数:
2025年02期
页码:
2-10
栏目:
智能传播
出版日期:
2025-04-20

文章信息/Info

Title:
The Impairment and Restoration of Human-Machine Trust Induced by Large Model Hallucinations and the Recalibration Mechanism
文章编号:
2096-8418(2025)02-0002-09
作者:
喻国明金丽萍刘佳颖
(北京师范大学新闻传播学院,北京 100875)
Author(s):
YU Guo-ming JIN Li-ping & LIU Jia-ying
关键词:
大模型 智能幻觉 人机关系 信任机制
分类号:
G206
DOI:
-
文献标志码:
A
摘要:
信任作为人机关系的核心,大语言模型的应用需建立在人机信任的基础之上。然而,大模型生成的不准确、不可靠的幻觉会让基于人机对话而建立的信任受损。但技术本身的结构和训练方式等内在局限性决定了幻觉无法完全避免。如何与无法消弭的幻觉共生并建立良性的人机关系,需构建一个与幻觉共存的多层级信任体系,以最大程度降低人机信任受损的风险。

参考文献/References:

[1]Glikson, E.& Woolley, A. W.(2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2):627-660.
[2]Bommasani,R., Hudson,D.A., Adeli,E., et al.On the opportunities and risks of foundation models.Retrieved Aug 18, 2021,from http://arxiv.org/abs/2108.07258.
[3]向安玲.无以信,何以立:人机交互中的可持续信任机制[J].未来传播,2024(2):29-41+129.
[4]闫坤如.人工智能价值对齐的价值表征及伦理路径[J].伦理学研究,2024(4):94-100.
[5]Rousseau,M.,Sitkin,S.,Burt,R.& Camerer,C.(1998).Not so different after all:A cross-discipline view of trust. Academy of Management Review,(23):393-404.
[6]于雪.基于机器能动性的人机交互信任建构[J].自然辩证法研究,2022(10):43-49.
[7]张宁,张雨青,吴坎坎.信任的心理和神经生理机制[J].心理科学,2011(5):1137-1143.
[8][德]尼古拉斯·卢曼.信任:一个社会复杂性的简化机制[M].瞿铁鹏,李强,译,上海:上海人民出版社,2005:3.
[9]Gambetta,D.(2000).Can we trust trust.Trust: Making and Breaking Cooperative Relations,13(2000):213-237.
[10]乐国安, 韩振华. 信任的心理学研究与展望[J]. 西南大学学报(社会科学版), 2009(2):1-5.
[11]赵梓昕,臧志彭.激励与治理:社会认知视角下平台型媒体的媒介信任机制——基于身份认同的中介效应实证[J].科学与管理,2023(6): 11-14.
[12]张洪忠,任吴炯.超越“第二自我”的人机对话——基于AI大模型应用的信任关系探讨[J].新闻大学,2024(3):47-60+118-119.
[13]Hoff,K.A.& Bashir,M.(2015).Trust in automation:Integrating empirical evidence on factors that influence trust.Human Factors,57(3):407-434.
[14]Borenstein, J., Wagner, A. R.& Howard, A.(2018). Overtrust of pediatric health-care robots: A preliminary survey of parent perspectives. IEEE Robotics & Automation Magazine, 25(1):46-54.
[15]黄心语,李晔.人机信任校准的双途径:信任抑制与信任提升[J].心理科学进展,2024(3):527-542.
[16] Ji, Z., Lee, N., Frieske, R., et al.Survey of hallucination in natural language generation,Retrieved October 25, 2024, from https://doi.org/10.1145/3571730
[17]Rawte, V., Chakraborty, S., Pathak, A., et al.The troubling emergence of hallucination in large language models——An extensive definition,quantification, and prescriptive remediations,Retrieved October 25, 2024, from http://arxiv.org/abs/2310.04988.
[18]许志伟,李海龙,李博,等.AIGC大模型测评综述:使能技术、安全隐患和应对[J].计算机科学与探索,2024(9):2293-2325.
[19]杜文静.法律人工智能概率推理的困境与破解[J].学术研究,2022(4):29-34.
[20]刘晓力.哥德尔对心-脑-计算机问题的解[J].自然辩证法研究,1999(11):33.
[21]齐玥,陈俊廷,秦邵天,等.通用人工智能时代的人与AI信任[J].心理科学进展,2024(9):1-13.
[22]Hancock, P. A., Kessler, T. T., Kaplan, A. D., Brill, J. C.& Szalma, J. L.(2021). Evolving trust in robots: Specification through sequential and comparative meta-analyses. Human Factors, 63(7):1196-1229.
[23]Dietvorst, B. J., Simmons, J. P.& Massey, C.(2015).Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1):114-126.
[24]黄心语,李晔.人机信任校准的双途径:信任抑制与信任提升[J].心理科学进展,2024(3):527-542.
[25]Hou, Y. T. Y.& Jung, M. F.(2021). Who is the expert? Reconciling algorithm aversion and algorithm appreciation in AI-supported decision making. Proceedings of the ACM on Human-Computer Interaction,(5): 477.
[26]喻国明,苏芳,金丽萍.缺席的对话:大语言模型的认知想象与差异弥合[J].现代出版,2024(1):20-35.
[27]张洪忠,任吴炯.超越“第二自我”的人机对话——基于AI大模型应用的信任关系探讨[J].新闻大学,2024(3):47-60+118-119.
[28]王袁欣,朱孟潇,陈思潞.理解人机对话——对角色定位、信任关系及人际交往影响的分析[J].全球传媒学刊,2023(5):106-126.
[29]韩秀.情感劳动理论视角下社交机器人的发展[J].青年记者,2020(27):81-82.
[30]张洪忠.大众媒介公信力理论研究[M].北京:人民出版社,2006:46.
[31]喻国明,滕文强,武迪.价值对齐:AIGC时代人机信任传播模式的构建路径[J].教育传媒研究,2023(6):66-71.
[32]Tomlinson,E.C.,Nelson,C.A.& Lang Iinais, L. A.(2021).A cognitive process model of trust repair.International Journal of Conflict Management,32(2):340-360.
[33]喻国明,颜世健,武迪.界面的再造:形塑社会的深度媒介化——以GPT-4和Sora等生成式大模型为例[J].浙江工商大学学报,2024(4):125-138.
[34]胡泳.当机器人产生幻觉,它告诉我们关于人类思维的什么?[J].文化艺术研究,2023(3):15-26+112.
[35]吴俊,张迪,刘涛,等.人类对人工智能信任的接受度及脑认知机制研究:实证研究与神经科学实验的元分析[J].管理工程学报,2024(1):60-73.
[36]贾玮晗,董春雨.事后解释可以消除认识的不透明性吗[J].探索与争鸣,2024(6):80-87+178.
[37]刘海明,李佳怿.“相信一段程序”:ChatGPT生成内容的认知途径与算法信任建构[J].传媒观察,2024(5):71-79.
[38]Shen,T.,Jin,R.Huang,Y, et al. Large language model alignment: A survey. Retrieved Sep 26, 2023, from http://arxiv.org/abs/2309.15025
[39]本刊编辑部.“阿西莫夫三定律”与技术伦理[J].社会科学文摘,2020(11):1.
[40][德]尼古拉斯·卢曼.信任:一个社会复杂性的简化机制[M].瞿铁鹏,李强,译,上海:上海人民出版社,2005:3.

相似文献/References:

备注/Memo

备注/Memo:
作者简介:喻国明,男,教授,博士生导师; 金丽萍,女,硕士研究生; 刘佳颖,女,硕士研究生。
更新日期/Last Update: 2025-04-15