AI伦理和安全风险管理终极指南

人工智能(AI)正在迅速改变各个领域的软件开发和部署。驱动这一转变的两个关键群体为人工智能开发者和人工智能集成商。开发人员处于创建基础人工智能技术的最前沿,包括生成式人工智能(GenAI)模型、自然语言处理(NLP)和大型语言模型(LLM)。与此同时,像Snap、Instacart、CrowdStrike、Priceline、Cloudflare、X(Twitter)和Salesforce这样的集成商通常会将这些人工智能的进步融入到他们的产品中。开发人员和集成商都致力于以创新和防范潜在威胁的方式推动人工智能的发展,确保人工智能技术保持竞争力、道德和安全。

随着人工智能应用的持续深入和普及,我们有必要考虑它对各种团队的影响,包括那些专注于安全、信任和合规性的团队。这些团队会遇到哪些挑战和风险,人工智能如何帮助解决这些领域的问题?本指南旨在根据HackerOne公司在不断发展的人工智能领域的经验和见解来解决这些关键问题。

人工智能的现状

随着人工智能技术的日益普及,两个关键趋势开始显露:进攻型人工智能的主导地位和攻击面的迅速扩大。

进攻型AI正在超越防御型AI

在短期内(也可能是无限期地),攻击性或恶意的人工智能应用程序将超过防御性的人工智能应用程序。这其实并不是一个新现象:攻击与防御的“猫鼠游戏”一直是网络安全领域的主旋律。

虽然GenAI为推进防御用例提供了巨大的机会,但网络犯罪团伙和恶意攻击者也不会放过滥用人工智能的机会。他们将升级武器,寻找潜在的漏洞利用,来对抗一切防御努力。通过深度造假(deepfakes)进行的社会工程攻击将比以往任何时候都更有说服力和成效。GenAI降低了准入门槛,网络钓鱼正变得越来越有说服力。

您是否曾经收到过一个自称是您的CEO的随机号码发来的短信,要求您购买500张礼品卡?虽然您不太可能上当,但如果这个电话来自您CEO的电话号码,情况又会有什么不同呢?如果这个声音听起来和您的CEO一模一样,而且这个声音甚至可以实时回答您的问题呢?这就是人工智能语音克隆的力量。

攻击面呈指数级增长

此外,研究发现新的攻击面出现爆炸式增长。防御者长期以来一直遵循“攻击面最小化”(attack surface reduction)原则,这是微软创造的一个术语,其目的是通过减少攻击者执行攻击的方式来保护组织的设备和网络。然而,GenAI的快速商品化将扭转一些攻击面最小化的进程。

使用GenAI生成代码的能力大大降低了成为软件工程师的门槛,导致越来越多的代码由不完全理解所开发软件的技术含义的人发布,更不用说监督安全含义了。

此外,GenAI需要大量的数据。那些持续以人类智力水平给我们留下深刻印象的模型,毫无例外都是数据体量最大的模型。在一个GenAI无处不在的未来,各种组织将积累越来越多的数据,甚至远超我们现在的认知水平。因此,数据泄露的规模和影响将会失控。攻击者比以往任何时候都更有动力获取数据。暗网数据价格正在上涨就是最好的证明。

攻击面增长并不止于此:在过去的几个月里,企业已经快速实现了GenAI提供的特性和功能。与任何新兴技术一样,开发人员可能没有完全意识到他们的实现可能被利用或滥用的方式。针对GenAI驱动的应用程序的新颖攻击正在成为防御者不得不担心的新威胁。

监管环境和业务需求正在演变

随着围绕人工智能测试的监管要求和业务要求变得越来越普遍,组织必须将人工智能红队和对齐测试无缝集成到他们的风险管理和软件开发实践中。这种战略整合对于培养负责任的人工智能开发文化,并确保人工智能技术满足安全和道德期望至关重要。

欧盟人工智能法案

欧盟最近就人工智能法案达成了一项协议,该法案对人工智能的信任和安全提出了几项要求。对于一些高风险的人工智能系统,所提要求包括对抗性测试、风险评估和缓解、网络事件报告以及其他安全保障措施。

美国联邦指南

欧盟的人工智能法案紧随美国联邦政府的指导方针,例如最近关于安全和可信赖的人工智能的行政命令,以及联邦贸易委员会的指导方针。这些框架将人工智能红队和正在进行的测试确定为帮助确保安全性和一致性的关键保障措施。

随着人工智能的应用范围不断扩大,使用者的责任也在不断扩大。对于希望部署GenAI的高科技公司来说,在网络安全方面采取积极主动的立场至关重要。这不仅意味着要跟上监管要求,整合强大的安全措施,还意味着要培养一种不断创新和道德优先的文化。平衡技术竞争力与安全性是在不断变化的局势中蓬勃发展的关键。

风险:影响AI和LLM的主要漏洞

迅速采用GenAI以提高生产力和保持竞争力的压力已经上升到令人难以置信的程度。与此同时,安全负责人正在努力了解如何利用GenAl技术,同时确保免受固有的安全问题和威胁。

AI Safety vs. AI Security

AI Safety的重点是防止人工智能系统产生有害内容,从制造武器的说明到攻击性语言和不适当的图像。它旨在确保负责任地使用人工智能并遵守道德标准。AI safety风险可能会对组织产生如下影响:

  • 有偏见或不道德决策的传播;
  • 公众对人工智能技术和部署它们的组织的信任受到侵蚀;
  • 不遵守道德标准所带来的法律、法规和财务责任;
  • 可能伤害个人或社会的意外后果。

另一方面,AI security涉及测试人工智能系统,目的是防止恶意行为者滥用人工智能,例如,损害人工智能所嵌入系统的机密性、完整性或可用性。AI security风险可能会为组织带来如下问题:

  • 泄露敏感或隐私信息;
  • 向未经授权的用户提供访问和功能;
  • 损害模型的安全性、有效性和道德性行为;
  • 造成广泛的财务和声誉损失。

OWASP Top 10 LLM漏洞

开放Web应用程序安全项目(OWASP)每年都会发布一系列全面的指南,包括“Top 10 LLM应用程序漏洞”,其中介绍了LLM应用程序面临的最关键的安全风险。以下是最新的OWASP Top 10 LLM漏洞榜单:

  1. 提示注入:攻击者通过精心设计的输入直接或间接地操纵可信LLM的操作。
  2. 不安全的输出处理:当对模型输出内容没有足够的验证、净化处理,便将其传递给下游组件或系统时,就会存在不安全输出处理的漏洞风险。这些漏洞一旦被滥用,便会引发XSS、CSRF、SSRF、特权升级或远程代码执行等问题。
  3. 训练数据中毒:指操纵预训练数据或在微调及嵌入过程中涉及的数据,以引入漏洞、后门或偏见,从而损害模型的安全性、有效性或道德行为。
  4. 模型拒绝服务:攻击者在LLM进行某种交互并大量消耗资源,从而导致服务降级或高成本。
  5. 供应链漏洞:LLM中的供应链可能很脆弱,会影响训练数据、机器学习(ML)模型和部署平台的完整性。LLM中的供应链漏洞可能导致有偏差的结果、安全漏洞,甚至系统故障。
  6. 敏感信息泄露:当LLM无意中泄露机密数据,导致专有算法、知识产权和私人或个人信息暴露,从而导致隐私侵犯和其他安全漏洞时,就会发生这种情况。
  7. 不安全的插件设计:LLM的功能和实用性可以通过插件进行扩展。然而,这可能伴随着通过糟糕或不安全的插件设计引入更多攻击面的风险。
  8. 过度代理:通常由过多的功能、权限和/或自主权引起。这些因素中的一个或多个会导致在响应LLM的意外输出或模糊输出时执行破坏性操作。
  9. 过度依赖:这种情况通常发生在系统或人员在没有充分监督的情况下依赖LLM进行决策或内容生成。组织和员工可能会过度依赖LLM,而缺乏确保信息准确、审查和安全所需的知识和验证机制。
  10. 模型盗窃:涉及恶意行为者未经授权的访问、复制或泄露专有LLM模型的情况。这可能导致经济损失、声誉受损和未经授权访问高度敏感数据。

现实世界的AI劫持

道德黑客现在专门寻找人工智能模型和部署中的漏洞。事实上,在hackerone的年度调查中,62%的黑客表示他们计划专攻OWASP TOP 10 LLM应用程序漏洞。例如,黑客Joseph“rez0”Thacker、Justin“Rhynorater”Gardner和Roni“Lupin”Carta正在合作,通过攻击GenAI助手(现在被称为Gemini)来强化谷歌的人工智能红队。

Bard ExtensionAI功能的推出为Bard提供了访问GoogleDrive、Google Docs和Gmail的权限。这意味着Bard可以访问个人身份信息,甚至可以阅读电子邮件,访问文件和位置。但黑客们发现,Bard分析了不可信的数据,可能容易受到不安全的直接对象引用(IDOR)和数据注入攻击的影响。

1714978850_66388022a43e605abdea8.png!small?1714978851715

在bard Extensions发布不到24小时的时间里,黑客们证明了如下结论:

  • Google Bard很容易通过扩展的数据受到IDOR和数据注入攻击。
  • 恶意图像提示注入指令将利用此漏洞。
  • 一个提示注入有效载荷可能会泄露受害者的电子邮件。

由于个人电子邮件泄露的影响十分大,黑客迅速向谷歌报告了这一漏洞,并获得了2万美元的赏金。然而,像这样的漏洞还只是GenAI中新发现漏洞的“冰山一角”。开发和部署GenAI和LLM的组织需要专门从事OWASP TOP 10 LLM漏洞研究的安全人才,才能正确平衡这些技术的竞争力和安全性。

机会:与黑客合作,快速安全地构建和部署AI

自从OpenAI宣布ChatGPT以来,道德黑客就一直在试验人工智能系统。黑客是一股智慧和实验的集体力量。他们是好奇的天才,他们的努力可以帮助组织以有竞争力的速度交付或实施人工智能,并维护安全。

HackerOne于2023年底发布了第七份年度黑客驱动安全报告,调查了黑客对GenAI的使用情况以及他们攻击该技术的经验。以下为主要调查结果:

  • 66%的黑客正使用或将使用GenAI来更好地编写报告;
  • 61%的黑客计划使用并开发GenAI驱动黑客工具来发现更多漏洞;
  • 55%的黑客表示,GenAI工具将成为他们未来几年的重点目标;
  • 53%的黑客将使用GenAI来编写代码;
  • 53%的黑客正在使用GenAI;
  • 43%的黑客认为GenAI将导致代码中的漏洞数量增加;
  • 38%的黑客认为GenAI将导致代码中的漏洞数量减少;
  • 28%的黑客最关注GenAI的犯罪型漏洞利用;
  • 22%的黑客最关注通过GenAI进行虚假信息传播;
  • 18%的黑客最关注通过GenAI增加不安全的代码;
  • 14%的黑客表示,GenAI已经成为其“至关重要的工具”;
  • 3%的黑客表示将使用GenAI来降低语言障碍。

1714978870_6638803665932988c6754.png!small?1714978873020

黑客眼中的顶级GenAI和LLM风险

HackerOne与黑客社区就AI的使用和安全问题进行了持续的对话,揭示了黑客眼中的顶级GenAI和LLM风险。

提示注入

OWASP十大LLM漏洞将提示注入定义为一种漏洞,在此漏洞中,攻击者可以直接或间接地通过精心制作的输入操纵可信LLM的操作。安全专家Paxton-Fear对提示注入提出了警告,他表示:

“随着AI技术的成熟和复杂性的增长,未来将会有更多的方法来破坏它。我们已经看到了人工智能系统特有的漏洞,例如提示注入或训练数据中毒。我们需要人工智能和人类智慧来克服这些安全挑战。”

Joseph Thacker则用了一个例子来帮助理解提示注入的力量,他表示,

“如果攻击者使用提示注入来控制LLM函数调用的上下文,他们就可以通过调用web浏览器特性来泄漏数据,并将泄漏的数据移动到攻击者一方。或者,攻击者可以通过电子邮件向负责阅读和回复电子邮件的LLM发送提示注入有效载荷。”

Roni Carta指出,如果开发人员使用ChatGPT来帮助他们在计算机上安装提示包,那么他们在要求它查找库时可能会遇到麻烦。因为ChatGPT会产生库名,而威胁行为者可以通过逆向工程假库来利用这些库名。

代理访问控制

Joseph Thacker表示,训练数据的质量决定了LLM的质量。而且,通常最有用的数据往往是私密数据。

根据Thacker的说法,这在代理访问控制方面产生了一个极为关键的问题。访问控制问题是HackerOne平台发现的非常常见的漏洞。而加剧人工智能代理访问控制问题的根源在于数据的混合。Thacker表示,人工智能代理倾向于将二阶数据访问与特权操作混合在一起,从而暴露出最敏感的信息,这些信息可能会被恶意行为者利用。

GenAI时代道德黑客的演变

在一个由Zoom和Salesforce的安全专家组成的小组讨论中,黑客Tom Anthony预测了黑客利用人工智能处理流程的变化。他表示,在Zoom最近的一次现场黑客活动中,黑客可以找到复活节彩蛋,而破解这些彩蛋的黑客使用了LLM来破解它。黑客可以使用人工智能来加速他们的过程,例如,在尝试暴力破解系统时快速扩展单词列表。此外,他还感觉到了使用自动化的黑客的明显不同,声称人工智能将大大提高对源代码的阅读能力。

黑客Jonathan Bouman使用ChatGPT来帮助破解他不是很自信的技术。他介绍称:

“我可以破解web应用程序,但不能破解新的编码语言。在一次现场黑客活动中,我将所提供的所有文档(删除了所有与公司相关的内容)复制粘贴进了ChatGPT,给了它所有的结构,并问它:‘你将从哪里开始?’我用了一些提示来确保它不会产生幻觉,而且它确实提供了一些低危漏洞。因为我和50个道德黑客在一个房间里,我可以和更广泛的团队分享我的发现,我们把其中的两个漏洞升级为严重漏洞。如果没有ChatGPT,我不可能做到这一点,而如果没有黑客社区,我也不可能取得这么大的影响。”

甚至还有一些新的工具可用于指导LLM入侵。Tom Anthony曾使用一款在线游戏进行提示注入,顺利欺骗GPT模型提供秘密。

解决方案:AI红队

人工智能红队是一种全面检查人工智能系统(包括人工智能模型及其软件组件)以识别安全问题的方法。这个过程会产生一系列问题以及用于解决这些问题的可行性建议,使传统的红队能够适应独特的人工智能挑战。具体可以通过漏洞悬赏计划、渗透测试或有时间限制的攻击性测试挑战来实现。

以下是HackerOne根据十多年经验给出的AI红队最优化实践建议:

团队组成

一个精心挑选和多样化的团队是有效评估的支柱。强调背景、经验和技能的多样性对于保护人工智能至关重要。好奇心驱动的思考者、具有不同经验的个人,以及熟练掌握生产LLM提示行为的组合能够产生最好的结果。

协作和规模

人工智能红队成员之间的协作具有无与伦比的意义,往往能够超过传统的安全测试。HackerOne发现,15-25名测试人员的团队规模可以达到有效参与的平衡,带来多样化和全面的视角。

背景和范围

与传统的安全测试人员不同,人工智能红队必须充分了解他们正在评估的人工智能系统。与客户密切合作以建立全面的环境和精确的范围是必不可少的。这种合作有助于确定人工智能的预期目的、部署环境、现有的安全和防御措施以及任何限制。

私人vs. 公共

虽然由于safety和security问题的敏感性,大多数人工智能红队都是私下运作的,但在某些情况下,也会采取公众参与的形式,比如X发起的“算法偏见赏金”挑战,通过邀请和激励人工智能伦理领域的研究人员来帮助识别Twitter图像裁剪算法的潜在歧视危害和伦理问题,目前已经取得了巨大的成功。

激励模型

调整激励模式是人工智能红队战术手册的一个关键方面。事实证明,将固定费用参与奖励与实现特定成果的奖励(类似于奖金)结合起来的混合经济模式最为有效。

原文链接:

https://www.hackerone.com/ultimate-guide-ai-risk

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/688010.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

单细胞分析:多模态 reference mapping (2)

引言 本文[1]介绍了如何在Seurat软件中将查询数据集与经过注释的参考数据集进行匹配。我们展示了如何将来自不同个体的人类骨髓细胞(Human BMNC)的人类细胞图谱(Human Cell Atlas)数据集,有序地映射到一个统一的参考框…

【busybox记录】【shell指令】cut

目录 内容来源: 【GUN】【cut】指令介绍 【busybox】【cut】指令介绍 【linux】【cut】指令介绍 使用示例: 关于参数的特殊说明: 打印行中选定部分 - 输出每行的第n-m个字节 打印行中选定部分 - 输出每行的第n-m个字符 打印行中选定…

Minimal-Supervised Medical Image Segmentation via Vector Quantization Memory

文章目录 Minimal-Supervised Medical Image Segmentation via Vector Quantization Memory摘要方法实验结果 Minimal-Supervised Medical Image Segmentation via Vector Quantization Memory 摘要 辅助重构分支:该分支通过提供额外的监督并产生学习视觉表示所需…

语言基础 /CC++ 可变参函数设计与实践,va_ 系列实战详解(强制参数和变参数的参数类型陷阱)

文章目录 概述va_ 系列定义va_list 类型va_start 宏从变参函数的强制参数谈起宏 va_start 对 char 和 short 类型编译告警宏 va_start 源码分析猜测 __va_start 函数实现 va_arg 宏宏 va_arg 无法接受 char 和 short为啥va_arg可解析int却不能解析float类型?宏 va_a…

windows设置Redis服务后台自启动

1.通过CMD命令行工是进入Redis安装目录,将Redis服务注册到 Windows服务中 redis-server.exe --service-install redis.windows.conf --loglevel verbose 2.查看—下Redis服务是否注册 WinR输入services.msc,确定进入,再查找是否有Redis 3.启动…

回溯法、全排列、子集等

回溯法 感想:回溯算法本质是一个循环,有点像while循环 一些回溯法(递归)的经典应用 1.全排列 2.子集 其实上面两个点,也是对应着高中数学里面的“排列”与“组合” 1.全排列问题 给定一个集合S{a,b,c}&#xff0…

实现WPF中的数据更新 属性通知界面:INotifyPropertyChanged接口

在WPF (Windows Presentation Foundation) 应用程序中,当数据发生变化时,通常希望UI能够自动更新以反映这些变化。为了实现这一功能,WPF 提供了数据绑定机制,并且配合 INotifyPropertyChanged 接口使用,可以在数据模型…

【北京迅为】《iTOP-3588从零搭建ubuntu环境手册》-第3章 Ubuntu20.04系统设置

RK3588是一款低功耗、高性能的处理器,适用于基于arm的PC和Edge计算设备、个人移动互联网设备等数字多媒体应用,RK3588支持8K视频编解码,内置GPU可以完全兼容OpenGLES 1.1、2.0和3.2。RK3588引入了新一代完全基于硬件的最大4800万像素ISP&…

RFID工业读写器在危化品储存管理的优势有哪些?

在化学品和危险品储存管理领域,传统的管理方式通常存在一些痛点和挑战:化学品和危险品的管理主要依赖于人工记录和监控,容易出现数据不准确、遗漏、混淆等问题,导致安全隐患和管理困难。化学品和危险品的存储和管理涉及到一系列安…

XTuner笔记

为什么要微调: 1. 模型不具备一些私人定制的知识 2。模型回答问题的套路你不满意。 对应衍生出来两种概念 增量预训练微调: 使用场景:让基座模型学习到一些新知识,如某个垂类领域的常识训练数据:文章、书籍、代码等…

护眼台灯和普通台灯差别很大吗?专业护眼灯品牌有哪些?

随着科技的不断演进,台灯的设计也日益脱胎换骨,从曾经的笨重造型转变为如今轻盈雅致的外观。它们的功能同样经历了多样化的革新,变得更加人性化和便捷。作为学习、阅读和办公环境中不可或缺的照明工具,台灯所提供的光线舒适度至关…

寻找最大价值的矿堆 - 矩阵

系列文章目录 文章目录 系列文章目录前言一、题目描述二、输入描述三、输出描述四、Java代码五、测试用例 前言 本人最近再练习算法,所以会发布一些解题思路,希望大家多指教 一、题目描述 给你一个由’0’(空地)、‘1’(银矿)、‘2’(金矿)组成的地图…