Page 1 of 1

数据保护倡导者反对 OpenAI:在公司中安全地使用生成式人工智能

Posted: Sun Feb 09, 2025 3:34 am
by sakib40
人工智能解决方案最近变得越来越有吸引力,这也引起了数据保护倡导者的兴趣。出现了几个问题,包括这些系统的训练数据的来源以及 ChatGPT 等生成工具生成的数据类型。

数据保护倡导者反对 OpenAI
当前引起轰动的一个案件是 Max Schrems 和 OpenAI 之间的冲突。这位著名的数据保护倡导者呼吁奥地利数据保护局 (DSB) 更仔细地审查 OpenAI 的某些流程。具体来说,它是关于ChatGPT提供信息的知名人士。但是,提供的一些信息,尤其是出生日期,是不正确的。

通过投诉,Schrems 最初的目的是获得罚款,以迫使 OpenAI 将来遵守数据保护法规。目的是确保避免数据处理中出现此类错误并更好地保护用户的隐私。

两难境地:数据保护与人工智能的有效利用
此类案件引起了数据保护倡导者和用户的激烈争论。一方面,目的是保护受影响者的个人权利。另一方面,有观点认为,数据保护力度强大的欧洲在数字化方面却日益落后,因为严格的监管使得欧洲作为OpenAI和其他科技公司的市场吸引力越来越小。

什么是对的,什么是错的,或者这种强有力的数据保护是否好,或者数字化是否更重要,这些问题无法用一般性的术语来回答。从根本上来说,这是一个观点的问题。理想情况下,所使用的AI工具完全 RCS 数据墨西哥 符合数据保护法规,同时可以以保证最高生产力的方式使用。

企业可以做什么
因此,公司应该考虑他们希望通过使用 AI 实现什么目标,以及如何在不违反 GDPR 的情况下使用这些系统。

自 ChatGPT 成功以来,生成式人工智能市场取得了巨大的增长,而这仅仅是个开始,还有更多的工具不断涌现。一个肯定好的方法是收集信息并测试应用程序以便最终选择合适的解决方案。认识到风险所在非常重要。

例如,在使用生成式人工智能时,不建议简单地生成文本并在不进行检查的情况下分发它们。最好将人工智能视为一种支持,但始终要对其进行控制。这样就可以确保不会发生违反数据保护法规的行为。