Description from extension meta
在侧边栏中使用Ollama和LM Studio本地大语言模型
Description from store
Chat-Sidebar (本地AI聊天助手)
**功能**: 统一的本地AI服务聊天界面,支持多种本地AI服务
**包含服务**:
- 🦙 Ollama (localhost:11434)
- 🎬 LM Studio (localhost:1234)
**特点**:
- 统一的聊天界面
- 服务标签切换
- 自动检测可用模型
- 实时聊天界面
- 连接状态监控
- 支持模型切换
- 清空对话功能
**使用前提**:
- **Ollama**: 需要先安装并启动Ollama服务,至少下载一个模型
- **LM Studio**: 需要先安装并启动LM Studio应用,加载模型并启动本地服务器
## 安装方法
## 使用方法
### Chat-Sidebar插件使用
#### 使用Ollama服务
1. 确保Ollama服务正在运行:
```bash
ollama serve
```
2. 确保已下载模型:
```bash
ollama pull llama2
# 或其他模型
ollama pull codellama
```
3. 点击插件图标打开侧边栏
4. 点击"🦙 Ollama"标签
5. 选择要使用的模型
6. 开始对话
#### 使用LM Studio服务
1. 启动LM Studio应用
2. 在LM Studio中加载一个模型
3. 启动本地服务器 (通常在端口1234)
4. 点击插件图标打开侧边栏
5. 点击"🎬 LM Studio"标签
6. 选择已加载的模型
7. 可选: 点击设置按钮调整参数 (温度、最大令牌数)
8. 开始对话
Statistics
Installs
0
history
Category
Rating
0.0 (0 votes)
Last update / version
2025-08-05 / 1.1
Listing languages