🤗 Transformers 提供 API 和工具,可轻松下载和训练最先进的预训练模型。使用预训练模型可以降低计算成本、碳足迹,并节省从头开始训练模型所需的时间和资源。这些模型支持不同形式的常见任务,例如:
📝 自然语言处理:文本分类、命名实体识别、问答、语言建模、摘要、翻译、多项选择和文本生成。
🖼️ 计算机视觉:图像分类、对象检测和分割。
🗣️ 音频:自动语音识别和音频分类。
🐙 多模式:表格问答、光学字符识别、扫描文档信息提取、视频分类、视觉问答。
具体算法模型地址:https://huggingface.co/docs/transformers/index
该文档分为五个部分:
GET STARTED 提供了库的快速浏览和安装说明,以启动和运行。
如果您是初学者,教程是一个很好的起点。本节将帮助您获得开始使用库所需的基本技能。
操作指南介绍如何实现特定目标,例如微调语言建模的预训练模型或如何编写和共享自定义模型。
概念指南提供了更多关于变形金刚模型🤗、任务和设计理念背后的基本概念和想法的讨论和解释。
API 描述了所有类和函数:
主类详细介绍了最重要的类,如配置、模型、分词器和管道。
MODELS 详细介绍了与库中实现的每个模型相关的类和函数。
内部帮助程序详细介绍了内部使用的实用程序类和函数。