基于本地 Ollama 的多智能体系统 — 量化分析、代码生成、需求评估,零 API 成本。
Local multi-agent system powered by Ollama — quant analysis, code generation, task evaluation. Zero API cost.
不依赖 OpenAI/Claude API,用本地 GPU 跑 Ollama 模型驱动多个智能体协作完成任务。每次对话零云端成本,延迟 <10s(5060 Ti 16GB)。
No OpenAI/Claude API dependency. Local Ollama models on a GPU drive multiple agents collaborating on tasks. Zero cloud cost, <10s latency on RTX 5060 Ti 16GB.
3 个角色轮流分析,给出最终交易决策:
| 角色 / Agent | 职责 / Role |
|---|---|
| Analyst | 技术分析、信号识别 |
| RiskMgr | 风险评估、仓位建议 |
| Executor | 最终交易决策 (BUY/SELL/HOLD + 止损止盈) |
Coder 生成代码,Reviewer 审查直到 APPROVED:
| 角色 / Agent | 职责 / Role |
|---|---|
| Coder | 编写 Python 代码 |
| Reviewer | 审查 bug/边界/改进,输出 APPROVED 终止 |
测试环境:RTX 5060 Ti 16GB + qwen3.5:4b @ Ollama
模型 : qwen3.5:4b (4B params, Q4_K_M)
首 token 延迟: ~0.8s (warmup 后)
生成速度 : ~42 tokens/s
完整 quant 任务 (3轮): ~18s
完整 code 任务 (2轮): ~12s
显存占用 : ~3.4 GB / 16 GB
API 成本 : $0.00
git clone https://github.com/guyu-adam/multiagent.git
cd multiagent
python3 -m venv venv && source venv/bin/activate
pip install -r requirements.txt
# 确保 Ollama 已运行并有模型 / Ensure Ollama is running with a model
ollama pull qwen3.5:4b
# 量化分析 demo / Quant demo
python main.py quant --task "NVDA momentum setup today: analysis, risk, decision"
# 代码生成 demo / Code gen demo
python main.py code --task "Write RSI(14) function for a price list"
# 完整演示 / Full demo
python main.py demo# 更小更快 / Smaller & faster
python main.py quant --model qwen3.5:4b
# 更大更准 / Larger & smarter
python main.py quant --model qwen3.5:latest # 8B
python main.py quant --model mistral:7b
python main.py quant --model llama3.1:8b| 项目 | 协同方式 |
|---|---|
| ibkr-quant | quant team 分析信号 → ibkr-quant 执行实盘 |
| demand-radar | code team 自动生成外包任务交付物 |
| miser | Claude Code 通过 miser 调用本地 LLM,与 multiagent 共用同一 Ollama |
新增 Agent 只需几行:
from autogen_agentchat.agents import AssistantAgent
my_agent = AssistantAgent(
"MyAgent",
model_client=make_client("qwen3.5:4b"),
system_message="You are a ... Be concise."
)- Python 3.10+
- Ollama with any chat model
- 推荐 8GB+ VRAM(4b 模型)/ 8GB+ VRAM recommended for 4b models
MIT