您好,欢迎来到九鑫智能机器人网!

登录注册

当前位置:九鑫智能机器人网新闻资讯新品动态 › 研究发现:AI聊天机器人表现出独特的决策偏差

研究发现:AI聊天机器人表现出独特的决策偏差

文章来源:研究发现:AI聊天机器人表现出独特的决策偏差 发布日期:2024-07-17 浏览次数:71

    盖世汽车讯 据外媒报道,为了解人工智能(AI)聊天机器人是如何做决定的,康奈尔SC约翰逊商学院(Cornell SC Johnson College of Business)的研究人员进行了一项新的研究,深入了解人类和AI决策过程的差异。

   Stephen Shu等研究人员探讨了AI聊天机器人的决策特征。Shu表示:“令人惊讶的是,这项研究表明,尽管AI聊天机器人具有强大的计算能力,但它们表现出的决策模式并非纯粹的人类模式,也不是完全理性的。它们拥有类似于人类的‘内部视角’,其特点是容易受到认知偏差的影响,比如联合谬误、过度自信和确认偏差。”

    联合谬误(conjunction fallacy)是推理中的一个常见错误,即个人认为特定条件比单一的一般条件更有可能。确认偏差(confirmation bias)是指人们更喜欢支持他们已经相信的信息。

    AI聊天机器人还可以提供“外部视角”,以在某些方面补充人类决策。它们擅长考虑基准率,不太容易受到因记忆回忆有限而产生的偏差影响,并且对可用性和捐赠效应偏差不敏感。例如,虽然人类往往表现出捐赠效应偏差(endowment effect bias),即当他们拥有物品时(而非不拥有物品)会更重视物品,但AI聊天机器人似乎并未表现出这种偏差。

    这项研究涵盖了各种AI平台,包括ChatGPT、Google Bard、Bing Chat AI、ChatGLM Pro和Ernie Bot。研究人员根据源自行为经济学的17条原则评估了这些决策过程,从而揭示人类与AI之间的联系。

    有趣的发现之一是,AI聊天机器人做出的决策,并不像研究人员预期的那样密切地反映人类行为。尽管在庞大的数据集上进行了训练,AI聊天机器人表现出的决策倾向有时会违背传统的人类或理性逻辑。例如,人类在面临损失时往往喜欢冒险(例如冒险将损失降到低级),而当AI聊天机器人做选择时,它们可能在面对损失时更倾向于寻求确定性(例如接受损失而不是冒险以尽量减少损失)。

    对于使用AI聊天机器人的商业人士来说,了解这些决策动态十分重要。虽然AI可以提供有价值的见解和帮助,但还是有必要保持一定的怀疑态度。了解AI提供“内部视角”的情况,有助于减轻过度自信和确认偏差的风险。与之相反,接受人工智能的“外部视角”能力,可以利用其在考虑基准率方面的优势,并减轻因人类局限性产生的偏见,从而增强决策能力。

       随着AI不断渗透到社会的各个方面,了解其决策动态变得越来越重要。这项研究揭示了AI的能力、局限性,以及其补充人类决策过程的潜力。


最新资讯

热门新闻

本站是信息交流平台,对交易经过不负任何责任,请双方谨慎交易,信息由企业自行提供,内容的真实性、准确性和合法性由发布者负责,如有疑问,请与本站联系。

技术支持:广东锐进广告有限公司