Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 8|回復: 0

最近的一项研究的研究表明每种工具

[複製鏈接]

1

主題

1

帖子

7

積分

新手上路

Rank: 1

積分
7
發表於 2024-2-11 19:31:15 | 顯示全部樓層 |閱讀模式
的不良代码率都很高。使用 生成代码的成本效益计算必须考虑到使用其输出所带来的较高风险。 缓解措施 好消息是,仔细的治理和正确的实施可以减轻许多此类安全风险。 等组织已经意识到这些信息安全风险,并意识到这些风险可能会阻碍其产品的成功。开发者社区也探索了缓解措施,虽然我们不太可能开发出消除风险的灵丹妙药,但有一些方法可以避免、缓解和管理风险。 封闭API 防止信息泄漏的一种选择是使用“封闭”API 模型。虽然许多 LLM 实现可以从您贡献的信息中动态学习,但一些公司正在引入订阅模型,承诺您的输入(无论是代码、文本还是图像)不会用于进一步改进模型。


三大云服务提供商也都在推出生成式人工智能产品,其中许多都提供数据处理保证,确保其输入数据不会离开该地区,从而有助于满足合规性要求和监管。 然而,目前很难从外部验证这些保证;您必须相信提供商的话,这可能无法令监管机构或您的法律团队满意,尤其是在涉及任何客户数据泄露时。证明否认是很困难的,因此制定确保不会发生数据泄露的验证策略具有挑战性。未来,人工智能工具提供商有望提供经过验证的 API,确保数据安全。 就良好实践而言,您应该避免 奥地利 WhatsApp 号码列表 向这些 API 提交个人数据,除非您已获得用户的明确同意(并且可以证明已给予同意)。个人数据可能位于您的数据仓库中,但也可能通过客户服务、运输和物流或销售渠道泄漏。基本上,任何时候员工可能使用法学硕士帮助起草对客户的回复,他们都应该意识到泄露个人数据的风险。如果您还没有这样做,那么现在是实施管理 LLM 个人数据使用的公司政策的最佳时机。



考虑到这些风险,并且希望了解组织中如何使用 LLM,一种可能的方法是限制对 API 的直接访问,将其替换为具有内部托管服务的外观。该服务可以帮助清理个人数据、标记误用和滥用、提供内部审计并简化成本管理。用户不调用 LLM 的外部 API,而是调用验证请求并将其传递给 LLM 的内部 API。必须正确监控外观 API,并通过云单点登录对用户进行身份验证。 然而,这种方法有一个缺点。由于模型无法从您的输入中学习,因此它们无法轻松适应您的需求。你基本上受到模型的支配,当你向其他用户学习时,不能保证你会朝着对你有利的方向学习。随着模型在不受您影响的情况下随着时间的推移而变化,其输出可能会变得不太相关,并且输出对于您的用例的有效性可能会降低。


回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|zv

GMT+8, 2025-5-11 08:47 , Processed in 0.802799 second(s), 19 queries .

抗攻擊 by GameHost X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |