Agents Course documentation
启航准备:开启学习之旅 ⛵
启航准备:开启学习之旅 ⛵

万事俱备,即刻启程!请完成以下四个步骤:
- 注册 Hugging Face 账户(如未完成)
- 加入 Discord 社区并自我介绍(无需拘谨 🤗)
- 在 Hub 平台关注智能体课程
- 助力课程推广
步骤一:创建 Hugging Face 账户
(如未注册)请点击此处创建账户
步骤二:加入 Discord 学习社区
👉🏻 点击此链接加入服务器
加入后请至 #introduce-yourself
频道完成自我介绍
我们设有多个 AI 智能体专属频道:
agents-course-announcements
:课程最新动态发布🎓-agents-course-general
:日常交流与自由讨论agents-course-questions
:答疑互助专区agents-course-showcase
:智能体成果展示厅
另可关注技术研讨频道:
smolagents
:开发库技术交流与支持
若您是 Discord 新用户,我们准备了《Discord 基础操作指南》供参考,详见下一章节
步骤三:关注 Hugging Face 智能体课程组织
通过关注课程组织,实时获取最新课程资料、更新通知与重要公告
👉 访问课程主页点击 Follow

步骤四:助力课程推广
两种方式支持课程发展:
- 为课程代码仓库点亮 ⭐ GitHub 项目主页

- 分享学习宣言:使用专属宣传图在社交媒体宣告你的学习计划

点击 👉 此处下载宣传图
步骤五:在本地使用Ollama运行模型(如果遇到信用额度问题)
安装Ollama
请按照官方说明安装Ollama
本地拉取模型
ollama pull qwen2:7b #访问ollama网站获取更多模型信息
- 在后台启动Ollama(在一个终端中)
ollama serve
如果遇到listen tcp 127.0.0.1:11434: bind: address already in use
错误,你可以使用命令sudo lsof -i :11434
来识别当前占用该端口的进程ID(PID)。若该进程是ollama
,则可能是上述安装脚本已启动了ollama服务,因此可以跳过此命令直接使用Ollama。
使用
LiteLLMModel
替代InferenceClientModel
要在
smolagents
中使用LiteLLMModel
模块,可运行pip
命令安装该模块。
pip install smolagents[litellm]
from smolagents import LiteLLMModel
model = LiteLLMModel(
model_id="ollama_chat/qwen2:7b", # 或尝试其他Ollama支持的模型
api_base="http://127.0.0.1:11434", # 默认的Ollama本地服务器地址
num_ctx=8192,
)
- 为什么这种方式可行?
- Ollama通过
http://localhost:11434
提供一个与OpenAI兼容的API,用于本地模型服务。 LiteLLMModel
设计用于与任何支持OpenAI chat/completion API格式的模型进行通信。- 这意味着你可以无缝地将
InferenceClientModel
替换为LiteLLMModel
,无需其他代码改动从而实现即插即用的解决方案。
恭喜!🎉 您已完成启航准备!现在可以正式开启智能体技术的学习之旅,祝您探索愉快!
保持学习热情,继续闪耀 🤗
< > Update on GitHub