> 技术文档 > (超详细教程)没有sudo权限,在服务器安装ollama,下载qwen2模型,python代码测试_ollama压缩包

(超详细教程)没有sudo权限,在服务器安装ollama,下载qwen2模型,python代码测试_ollama压缩包


1、创建一个文件夹放ollama

#创建文件夹mkdir ollama#进入该文件夹cd ollama

2、下载安装包

2.1命令行下载压缩包

#下载安装包wget -O ollama-linux-amd64.tgz https://ollama.com/download/ollama-linux-amd64.tgz

如果一直连接不上github,像下面图片中一样,那就换一种方法,用xftp本地上传这个压缩包。如果这步可以下载,那就直接跳到下面第3步解压。

2.2本地上传压缩包

先去ollama官网下载压缩包到自己电脑上,然后在Xftp新建会话,把刚刚下载的压缩包传到ollama文件夹下(由于我在第一步创建的ollama1,所以我上传到ollama1文件夹下)

传完是这样的

3、解压缩

#解压缩tar -xvzf ollama-linux-amd64.tgz

压缩后在ollama文件夹下是这样的

进入bin文件夹,ls查看,会有一个ollama的文件

4、启动ollama

4.1没有设置环境变量启动ollama

如果在没有设置环境变量的情况下,必须在bin文件夹下启动

#启动ollama,必须用./xxx./ollama serve

这样就启动成功了​​​​​​​

再新建一个终端,进入bin文件夹,运行以下命令查看ollama的版本

#查看ollama版本./ollama -v

4.2设置环境变量

启动ollama,设置环境变量后,就可以在任意一个文件夹下启动ollama了,以下有两种设置环境变量的方法,推荐永久设置的方法

设置临时环境变量:直接输入以下命令

(这个地址要替换为自己的地址,在bin文件夹下输入pwd可以查看地址,如下边第二张图)

#设置临时环境变量export PATH=$PATH:/home/wangjunjun/ollama/bin
#查看当前文件地址pwd

设置永久环境变量:以下nano ~/.bashrc命令打开编辑环境变量的窗口

#编辑环境变量nano ~/.bashrc

在最下边添加环境变量

export OLLAMA_HOME=改为自己的地址export PATH=$PATH:$OLLAMA_HOME

然后进行以下操作保存并退出  ctrl+O    Enter   ctrl+X

执行以下指令使环境变量生效

source ~/.bashrc

4.3设置完环境变量启动ollama

设置了环境变量就可以在任意文件夹下直接ollama serve 启动了

ollama serve

查看版本

ollama -v

5、下载模型

进入ollama官网,选择模型

比如我想下载qwen2-7b的模型,有环境变量的情况下直接复制箭头所指命令,运行,没有环境变量的情况下用./+复制的内容

#设置环境变量ollama run qwen2#没有设置环境变量./ollama run qwen2

然后就开始下载模型了,下载好后可以直接跟模型进行对话,ctrl+d结果对话。

还可以用ollama list查看已经下载的模型列表

#设置环境变量ollama list#没有设置环境变量./ollama list

6、python代码测试

把模型替换为自己的可以成功运行

import ollama# 生成回答并逐字符打印stream = ollama.chat( model=\'qwen2\', messages=[{\'role\': \'user\', \'content\': \'天为什么是绿的\'}], stream=True,)for chunk in stream: print(chunk[\'message\'][\'content\'], end=\'\', flush=True)def test_ollama_chat(): # Test case 1: Test with a simple question messages1 = [{\'role\': \'user\', \'content\': \'天为什么是绿的\'}] stream1 = ollama.chat(model=\'llama3.1\', messages=messages1, stream=True) response_content = \"\" for chunk in stream1: response_content += chunk[\'message\'][\'content\'] # 检查回答是否合理 assert \"绿色\" in response_content or \"为什么\" in response_content print(\"All test cases pass\")test_ollama_chat()