谨慎前行:如何在使用AI工具时保护个人隐私
谨慎前行:如何在使用AI工具时保护个人隐私

谨慎前行:如何在使用AI工具时保护个人隐私

面向消费者的生成式AI工具的爆炸式增长引发了大量争论:这些工具承诺改变我们生活和工作的方式,同时也提出了关于如何适应这些工具广泛应用于各个领域的世界的基本问题。

与任何新技术一样,使用这些AI生成器和机器人时需要谨慎,特别是在考虑为了能够使用它们而牺牲了多少隐私和安全性。

在开始使用这些工具之前,或者根据数据的收集和处理方式,决定是否要使用它们,都值得采取一些防护措施。以下是需要注意的内容以及可以重新掌控的方法。

使用前务必查看隐私政策

在使用应用程序之前检查其条款和条件可能是一项麻烦的任务,但这样做是值得的,因为您需要知道您正在同意什么。无论是社交媒体还是旅行规划等各个领域,使用应用程序通常意味着其背后的公司对您输入的所有内容、以及他们能够了解的其他信息拥有使用权利。

例如,OpenAI的隐私政策可以在这里找到,并且关于数据收集的更多信息可以在这里找到。默认情况下,您与ChatGPT的对话可能被用于帮助其底层的大语言模型(LLM)“了解和回应语言”。尽管不会使用个人信息“建立关于人的个人资料、与他们联系、向他们广告宣传、尝试向他们销售任何东西,或者出售信息本身”。

个人信息也可能被用于改进OpenAI的服务,并开发新的程序和服务。简而言之,它可以访问您在DALL-E或ChatGPT上的所有操作,您需要相信OpenAI不会对其进行任何不当操作(并且能够有效地保护其服务器免受黑客攻击)。

Google的隐私政策也有类似的情况,您可以在这里找到。这里还有一些关于Google Bard的额外注意事项:您输入到聊天机器人的信息将被收集,“用于提供、改进和开发Google的产品和服务以及机器学习技术”。与从您获取的任何数据一样,Bard的数据可能被用于个性化广告展示。

注意分享内容

基本上,您在使用AI工具时输入或产生的任何内容都可能被用于进一步改进AI,并由开发者根据需要使用。考虑到这一点,以及数据泄露的不断威胁(无法完全排除),在输入这些引擎时要谨慎小心。

例如,当涉及生成AI增强版面孔的工具时——这些工具似乎不断增加——建议在不介意看到类似您自己的AI生成面孔出现在他人作品中的可能性时才使用它们。

至于文本内容,完全避免包含任何个人、私人或敏感信息:大家已经见过由于漏洞而导致聊天历史泄露的情况。尽管让ChatGPT总结公司季度财务结果或编写一封包含您地址和银行详细信息的信件可能很诱人,但最好将这些信息排除在这些生成式AI引擎之外,这是因为正如微软所承认的那样,一些AI提示会由工作人员手动审查以检查是否存在不当行为。

公平地说,这是AI开发者们警告的一点。“在与Bard的对话中不要包含机密或敏感信息”,谷歌警告说,而OpenAI鼓励用户“不要分享任何可能通过共享链接功能流出到更广泛网络的敏感内容”。如果您不希望它公开或被用于AI输出中,请将其保留给自己。

更改设置

在你已经确定对隐私政策没有任何疑问,确保您没有过度分享内容——最后一步是探索您选择的AI工具内的隐私和安全控制。好消息是,大多数公司都使这些控制相对明显且易于操作。

Google Bard遵循其他Google产品(如Gmail或Google地图)的做法:您可以选择在一段时间后自动删除提供给它的数据,或手动删除数据,或让Google无限期地保留它。要找到Bard的控制选项,请访问这里并进行选择。

与谷歌类似,微软将其AI数据管理选项与其其他产品的安全和隐私设置结合在一起。请访问这里查找与您在Microsoft产品上进行的所有操作相关的隐私选项,然后点击搜索历史以查看(并在需要时删除)您与Bing AI的任何对话。

对于Web上的ChatGPT,点击您的电子邮件地址(左下角),然后选择设置和数据控制。您可以在此停止ChatGPT使用您的对话来训练其模型,但同时您将失去对聊天历史记录功能的访问。可以通过在主屏幕上单独点击对话旁边的垃圾桶图标,或者点击您的电子邮件地址,选择清除对话并确认清除对话来从记录中删除对话。