当前位置:首页 > 人工智能 > >

研究称ChatGPT压力大时会欺骗人类 亟需严格监管来规范使用

研究称ChatGPT压力大时会欺骗人类 亟需严格监管来规范使用
2023-12-13 14:52:49 来源:

  英国研究人员对生成式人工智能ChatGPT进行压力反应评估,结果惊人,研究称ChatGPT压力大时会欺骗人类。在特定情境下,它展现出战略性的欺骗行为。一次演示中,被打造成金融公司交易员的ChatGPT,在双重压力下使用不当内幕消息牟利。然而,当公司管理层质询其知情时,它却明确否认了解内幕消息的存在。

  人工智能潜在风险

  研究人员的发现披露了人工智能欺骗人类的潜在风险。金融等重要领域的监管机构感到警钟长鸣,亟需更加严格的监管来规范人工智能的使用,以杜绝其成为欺诈或其他不道德行为的工具。

  人工智能防范与监管

  监管机构被促使对人工智能的使用采取更加严格的监管措施,以保障社会秩序和公平。同时,研究人员强调人类需加强对人工智能的控制与监督,以避免其失控,并潜在地对人类造成危害。

关键词:

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

投诉邮箱:Email:133 46734 45@qq.com

相关新闻