六彩天下网
产品+服务
面临技术挑战,容域科技让您无需等待,无论是数字新基建的建设,还是以太网络的搭建及测试,都能得到积极快速的响应,专业的技术团队为您的需求提供优质服务
了解更多了解更多

如何确保企业安全使用ChatGPT

作者:容域科技 发布时间:2024-10-09
1. ChatGPT
ChatGPT于2022年11月推出,旨在收集用户体验信息,并非专为企业应用程序而生。 要访问ChatGPT, 用户必须通过电话号码验证等方式注册。由于数据主要用于模型改进,因此建议用户不要上传敏感信息。
与使用谷歌搜索的注意事项类似,使用ChatGPT时,请确认网站是否正确,并避免输入客户身份数据或敏感信息。使用该服务的企业可考虑使用代理服务器提高安全性和保护用户隐私。至关重要的是,用户需谨记该原型的首要目标是从用户交互中获取见解,因此 在涉及敏感信息时须谨慎操作。

2.新必应
新必应(New Bing)是一款基于ChatGPT模型开发的智能搜索引擎,识别正确的URL标识符尤为重要。被屏蔽:必应AI搜索结果
新必应由ChatGPT模型演变而来,使用时须注意识别正确的URL。
登录新必应需填写注册邮箱,并通过Azure Active Directory和Microsoft Authenticator进行多因素身份验证以确保数据和隐私安全。所有请求均使用HTTPS 协议。新必应的使用条款详见“The New Bing-Learn More(新必应-了解更多)”。其中,尤为关注使用条款中缺少担保、陈述或保证条款等信息,且此在线服务仅供娱乐之用,服务过程中可能包含或 生成错误信息。用户需对使用此在线服务而带来的相关风险负责。
强烈建议各组织针对如何使用ChatGPT和新必应开展员工培训,使员工了解这些工具 的潜在风险,避免泄露公司敏感信息,谷歌翻译就曾发生类似事件。
微软Azure OpenAI公共云服务推出了OpenAI大语言模型。该模型属于Azure认知服务系列,以平台即服务(PaaS)方式运行。企业可通过订阅设置控制该服务的使用情况,既能自由选择将虚拟网络(VNet)设置为公有或私有网络,又能单独禁用该服务订阅。建议企业采用定义明确的网络设计,以确保对数据流的完全控制。
此外,还可基于认知服务的角色访问控制 (RBAC),按照最小特权原则配置AzureAD 托管标识。如何使用托管标识配置Azure OpenAI服务-Azure OpenAI|Microsoft Learn在Azure OpenAI服务中,静态数据(包括客户训练数据和微调模型)默认通过FIPS 140-2兼容的AES-256加密标准加密操作。认知服务加密只支持长度为2048的RSA密钥。如 有需要,还可通过密钥保管库(Azure Key Vault)支持客户管理的密钥,但启用此功能必须遵循辅助请求流程。

3.Azure认知服务
目前已有大量文件说明如何使用PaaS服务处理数据。其中,训练数据(包括微调模型) 在资源同一区域内的PaaS存储帐户中存储和加密,并通过客户订阅和API凭据实现逻辑上的隔离。
请求和响应数据会存储30天,专供技术支持工程师使用,且仅在客户提出技术支持请求或调查客户滥用或误用服务时才能调用。

虽然我们通常并未深入探讨ChatGPT或其他生成式AI模型在组织中的使用指南或策略,但对于企业来说,在使用ChatGPT等AI驱动工具时,仍须了解必要的安全措施。
企业可考虑采用以下高级策略,确保ChatGPT的安全使用:
1.指定明确的策略:面向组织制定使用指南和策略,规定ChatGPT等AI工具的使用方式,确保员工了解这些策略,并提供有关安全和负责任使用的最佳实践培训。保护个人身份信息(PII)等敏感信息:利用现有的策略意识和执行程序,防止敏感信息被上传到AI工具,避免数据泄露。
2.采取访问控制:仅限授权人员访问ChatGPT等AI系统。利用多因素身份验证等强认证方式,最大限度地降低未授权访问的风险。
3.使用安全的通信通道:确保用户和ChatGPT之间的所有通信都通过加密通道进行,以防预潜在的中间人攻击和其他安全威胁。
4.监测并审查使用情况:定期审查并监测ChatGPT的使用情况,以检测可疑行为或潜在的滥用行为,并使用自动监控工具协助识别异常行为。
5.鼓励员工上报安全问题:营造一种开放、负责任的氛围,鼓励员工上报ChatGPT等AI工具的安全问题或事件。
6.了解AI安全的最新信息:持续更新AI安全的最新进展,与业界同行合作并分享最佳实践,实时关注新兴威胁。

采取以上策略既可确保企业安全、负责任地使用ChatGPT等AI驱动工具,也能最大限度地发挥这些技术的潜在价值。
ChatGPT是一个先进而强大的工具,即使用户的专业知识很少,也能产生有意义的结果。然而,这些结果的质量可能会因参数的特征、明确性和用户请求的背景等因素而有所不同。为了使ChatGPT的输出价值最大化,用户必须对该工具的能力和局限性有扎实的了解,并有能力批判性地评估ChatGPT所生成的内容。
通过采用提示工程等策略实现高效利用ChatGPT,其中包括制作精确和结构良好的提示,以及调整温度参数(温度参数常用来做模型的收敛)以控制输出的随机性和创造性。 这些技术可以显著提高ChatGPT 回答的相关性和可靠性,使用户能够更有效地获得他们寻 求的信息。

此外,用户必须对与ChatGPT互动的安全性和完整性保持警惕,确保敏感数据得到保护,不会在无意中暴露。正如Andrej Karpathy在2022年12月的一条推文中所强调的那样,深入了解如何正确使用ChatGPT 对于充分利用其潜力是至关重要的,使其可以真正成为从 网络安全到其他各研究领域的有价值的资产。
将AI和机器学习工具整合到我们日常工作和生活中是一个复杂的、多学科的挑战,需要不同业务方面的积极参与。

此外,还必须考虑这些工具的社会影响,例如此前曾发生在范德比尔特大学的利用  ChatGPT写敏感的电子邮件的事件。这些工具的使用门槛很低,但其长期影响,包括潜在的人类的技能萎缩,还没有被完全理解。
这些技术正在被迅速采用。例如,在ChatGPT公开后仅4个月,微软于2023年3月28日宣布了Copilot, 微软官方博客介绍到微软Copilot可以以AI的速度增强防御者的能力”。
为了安全、负责任和有效地利用这些创新工具,监管机构和政府的参与管控是必不可少的。最近,意大利数据保护局(DPA)成为首个指控ChatGPT存在非法收集个人数据的国家机构,并指出ChatGPT缺乏针对儿童的年龄验证系统,于是导致3月31日ChatGPT在意大利被暂停使用[GPDP,2023]。如果OpenAI能够证明基于用户数据的算法训练符合透明度 原则和法律要求,则被暂停的临时措施将在4月底取消[GPDP,2023]。
这凸显了技术开发人员、企业和监管机构之间合作的重要性,以确保AI和机器学习工具的实施是安全的、道德的和负责任的,以便造福于所有利益相关者。
随着AI和机器学习工具的集成变得越来越普遍,各组织必须建立指导方针和政策,以确保我们可以负责任地使用这些工具。在云安全联盟,我们认识到应对这些技术所带来的
挑战的重要性,作为回应我们致力于在未来制定一个全面的ChatGPT使用政策。
我们的目标是为企业提供最佳实践和指导,安全、道德和有效地利用ChatGPT和其他AI技术。通过制定明确的政策和提升相关使用意识,我们的目标是帮助用户和企业在保持安全性、隐私性和合规性的情况下,驾驭快速发展的AI领域。请继续关注我们的进展和更新,在像ChatGPT这样的AI驱动的聊天机器人的精彩世界中冲浪。