关注我们在 Facebook 上
技术
伊隆·马斯克警告人工智能危险:人工数据可能带来“幻觉”风险
埃隆·马斯克对 GPT-4 和 ChatGPT 等人工智能模型的潜在危险表示强烈担忧,这些模型依赖来自互联网的大量数据来学习和生成答案。马斯克表示,这些模型会消耗大量数据,有可能我们会达到在线数据耗尽的地步,迫使开发人员求助于模型自己创建的“人工”数据。
这种现象可能导致马斯克所说的神经网络的“幻觉”。具体来说,这意味着当人工智能依赖自己的数据生成器进行学习时,它们可能会产生错误或不一致的结果,换句话说就是“幻觉”。事实上,人工智能模型可能会提供乍一看正确但实际上却是错误或毫无意义的答案。
马斯克警告这种“幻觉”的潜在后果,即人工智能可能会产生虚假的、令人信服的答案,但根本没有现实依据。这就引出了一个基本问题:我们如何知道人工智能的反应是有效的还是只是毫无价值的幻觉?
人工智能对人工生成的数据的依赖越来越大,这可能会随着时间的推移降低信息的质量,因为这些系统可能会重现或放大原始数据中存在的错误和偏差。马斯克强调需要限制对人工智能数据的依赖,并强调确保人工智能模型所用信息的多样性和质量的重要性。
为了避免这种现象,可以开发自动验证系统来评估人工智能响应的真实性。例如,可以使用可靠的来源来验证事实或将结果与其他数据库进行比较。此外,在敏感区域,人类干预可以在审查和验证人工智能产生的反应方面发挥关键作用,以最大限度地减少错误和幻觉。
评论 (0)