【教程】本地Ollama部署模型[Windows]
本文最后更新于 78 天前,其中的信息可能已经有所发展或是发生改变。

在给老板们部署模型的时候,经常有问Ollama能不能部署,轻量,就去搞了一下

安装本体

打开:Download Ollama on Windows,点击下载Winodws预览版本,得到OllamaSetup.exe安装文件。

先别急着安装,默认情况下,ollama模型的存储目录如下:

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\<username>\.ollama\models

如果需要使用不同的目录,则需设置环境变量OLLAMA_MODELS, 把它设置为所选目录。

https://github.com/ollama/ollama/blob/main/docs/faq.md

然后OllamaSetup.exe安装文件运行后会自动安装Ollama,安装完成后会在右下角状态栏跳出一个羊驼图标,就是它。

另外可以通过添加以下环境变量修改接口的IP端口地址:

OLLAMA_HOST=0.0.0.0:11434

安装模型

模型网址:Ollama

我们这边选新出的Qwen2,默认是7B的,我试了下,显存占用不高,4.9G≈5G

新建终端,运行以下命令会自动下载7b模型并加载,加载后就可以在终端中跑文字对话。

ollama run qwen2

接口调用

接口地址为http://localhost:11434,如下图所示,因此只需要将某些软件的AI代理设置为http://localhost:11434即可。

ollama命令

删除模型

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
Source: https://github.com/MengXi2021/Argon-Emoji-DailyNotes
Source: https://github.com/Ghost-chu/argon-huhu-emotions
Source: github.com/zhheo/Sticker-Heo
颜文字
Emoji
小恐龙
花!
每日手帐
呼呼
Heo
上一篇
下一篇