谷歌似乎担心其Bard会泄露机密信息据报道告诉员工要小心 全球速读
(资料图片)
在谷歌的I/O大会上,大部分的谈话都是关于AI的。该公司推出了GoogleBard作为响应OpenAI的ChatGPT(通常称为LLM聊天机器人或大型语言模型聊天机器人)的实验产品。似乎谷歌在幕后对人工智能聊天机器人并不那么热心。
路透社现在报道称,谷歌据称已告知员工要警惕使用LLM聊天机器人,包括谷歌自己的Bard。
谷歌担心隐私和安全,据称建议员工在使用GoogleBard时要格外小心
谷歌似乎发现了员工使用GoogleBard时可能出现的一些隐私和安全问题。一方面,据报道该公司告诉其开发人员不要使用聊天机器人可以生成的代码(谷歌I/O大会期间展示了GoogleBard的代码生成功能)。
主要是,问题似乎是公司机密。如果您一直关注移动技术世界(或一般的技术世界),您就会看到过去几年发生的大量泄密事件,破坏了大产品的发布。
基本上,如果员工将机密信息输入Bard或ChatGPT,这些信息就会公开。这同样适用于代码字符串,这可能会危及代码的安全性,将其展示给可能利用它的潜在黑客。
据报道,三星和亚马逊等其他公司在人工智能方面也有护栏。
谷歌在给路透社的评论中表示,它努力对Bard的局限性保持透明,并表示在代码方面,Bard可以成为一个有用的工具,尽管有时它可能会提出不受欢迎的建议。
与此同时,据报道,在Bard推迟在推出后(同样是出于爱尔兰监管机构对隐私的担忧),谷歌正在与爱尔兰的数据保护委员会进行谈判。
关键词:
推荐阅读
资讯
品牌