Ollama Chat 助手

一个基于 Ollama 的聊天助手,随时随地与您的本地大语言模型交流

作者
h7ml
日安装量
0
总安装量
4
评分
0 0 0
版本
0.1.1
创建于
2025-03-18
更新于
2025-03-18
大小
75.9 KB
许可证
暂无
适用于
所有网站

Ollama Chat 助手 - 油猴脚本文档

简介

Ollama Chat 助手是一个基于 Tampermonkey 的浏览器扩展脚本,它提供了一个优雅的聊天界面,让用户可以随时随地与本地运行的 Ollama 大语言模型进行对话。该脚本支持多种 Ollama 模型,提供了流式响应、模型参数配置等高级功能。

主要特性

  1. 优雅的用户界面

    • 可拖拽的聊天窗口
    • 支持最小化/最大化
    • 响应式设计
    • 美观的消息气泡
    • 支持 Markdown 格式
  2. 强大的功能

    • 支持多种 Ollama 模型
    • 流式响应输出
    • 可配置的模型参数
    • 聊天历史记录
    • 代码高亮显示
  3. 灵活的配置

    • 可自定义服务器地址
    • 可调整模型参数(温度、top_p、top_k等)
    • 支持上下文长度设置
    • 可配置重复惩罚系数
  4. 用户体验优化

    • 打字机效果
    • 消息时间戳
    • 字数统计
    • 快捷键支持
    • 状态通知

安装说明

  1. 确保已安装 Tampermonkey 浏览器扩展
  2. 点击以下链接安装脚本: [安装链接]

使用说明

  1. 基本使用

    • 安装后,在任意网页右下角会出现聊天图标
    • 点击图标打开聊天窗口
    • 在输入框中输入消息,按回车或点击发送按钮发送
  2. 窗口控制

    • 拖拽标题栏移动窗口
    • 点击最小化按钮最小化到图标
    • 点击最大化按钮全屏显示
    • 拖拽窗口边缘调整大小
  3. 配置说明

    • 点击设置图标打开配置面板
    • 可配置服务器地址
    • 可调整模型参数
    • 支持开启/关闭流式响应
  4. 快捷键

    • Enter:发送消息
    • Shift + Enter:换行
    • Esc:关闭配置面板

技术细节

  1. 依赖项

    • jQuery 3.6.4
    • Marked.js 4.3.0
    • Highlight.js 11.7.0
  2. 存储机制

    • 使用 GM_setValue/GM_getValue 存储配置
    • 支持保存聊天历史
    • 记住窗口位置和大小
  3. API 集成

    • 支持 Ollama API
    • 支持流式响应
    • 错误处理和重试机制

配置参数说明

  1. 基础配置

    • 服务器地址:Ollama 服务地址
    • 模型选择:可用的 Ollama 模型
  2. 模型参数

    • 温度 (Temperature):控制输出的随机性 (0-2)
    • Top P:控制输出的多样性 (0-1)
    • Top K:控制输出的多样性 (1-100)
    • 上下文长度:控制上下文窗口大小 (512-8192)
    • 重复惩罚:控制重复内容的惩罚程度 (1-2)

注意事项

  1. 需要本地运行 Ollama 服务或使用可用的远程服务
  2. 建议使用现代浏览器以获得最佳体验
  3. 首次使用需要配置服务器地址
  4. 部分网站可能会限制脚本运行

更新日志

v0.1.0

  • 初始版本发布
  • 实现基本聊天功能
  • 支持模型配置
  • 添加流式响应

贡献指南

欢迎提交 Issue 和 Pull Request 来帮助改进这个项目。

许可证

MIT License

QingJ © 2025

镜像随时可能失效,请加Q群300939539或关注我们的公众号极客氢云获取最新地址