(资料图)

本文概要:

1. 虽然存在泄露机密的担忧,但许多美国员工仍在工作中使用 ChatGPT。

2. 谷歌、微软等公司已限制使用 ChatGPT,引发对安全性的担忧。

3. 一些公司积极测试 ChatGPT,但仍需谨慎对待其潜在风险。

编程客栈() 8月11日 消息:根android据路透社 / Ipsos 对美国2,625名成年人进行的民意调查显示,尽管存在担忧,但许多美国员工仍在工作中使用 ChatGPT。

ChatGPT 是一个利用生成式人工智能进行对话的聊天机器人程序,可以帮助用户处理基本任务。然而,安全公司和企业对其可能导致的知识产权和战略泄露表示担忧。调查显示,28% 的受访者称他们经常在工作中使用 ChatGPT,而只有22% 的受访者表示他们的雇主明确允许使用外部工具。

另外,约10% 的受访者表android示他们的老板明确禁止使用外部 AI 工具,约25% 的受访者不知道他们的公司是否允许使用该技术。

ChatGPT 自去年11月推出以来成为史上增长最快的应用程序。然而,它也引发了一些争议,OpenAI 公司因其大规模数据收集而引起编程客栈了隐私监管机构的批评。其他公司的人工智能评审员可能会读取生成的对话,而研究人员发现类似的人工智能可以重现其在训练过程中吸收的数据,从而对专有信息构成潜在风险。

一些公司表示他们积极使用 ChatGPT 等平台,但仍要考虑安全性。可口可乐的一位发言人表示,他们已经开始测试 AI 如何提高运营效率,并使编程客栈用企业版本的 ChatGPT 来提高团队的效能和生产力。而另一家公司 Tate & Lyle 的首席财务官表示,该公司正在试验 ChatGPT,并找到了一种安全使用它的方式。

然而,一些员工表示他们无法在公司电脑上使用 编程客栈ChatGPT,因为它在公司网络上被完全禁止。专家表示,企业有理由对此保持警惕,因为存在一些恶意提示可以使 AI 聊天机器人泄露信息。

推荐内容