1.ollama pull时进度回退:不知是否最近太多人下载导致服务器问题,下载大点的模型经常进度条往回退,解决方法就是每隔一会关闭进程重新下载,断点续传可以继续下载
# 用法:python .\run.py 模型名字import subprocess import time import os import sys import signaldef run_command(model):while True:# 要执行的命令和参数command = ['ollama', 'pull', model]# 启动命令进程process = subprocess.Popen(command)try:# 等待 60 秒time.sleep(60)# 尝试在 60 秒后终止进程if process.poll() is None: # 如果进程仍在运行 os.kill(process.pid, signal.SIGTERM)print("Process terminated")except Exception as e:print(f"An error occurred: {e}")finally:process.wait() # 确保进程关闭print("Looping again...")if __name__ == '__main__':run_command(sys.argv[1])
2.切换gpu执行而不是cpu
> ollama ps NAME ID SIZE PROCESSOR UNTIL llava:latest 8dd30f6b0cb1 5.7 GB 25%/75% CPU/GPU 4 minutes from now
运行模型后通过ps查看,发现进程分配一部分给cpu,一部分给gpu,但是通过进程管理器查看发现几乎都是cpu在跑,有点卡
暂时不知道怎么强制gpu执行
3.联网搜索
通过chatbox执行的deepseek-r1不支持联网搜索,感觉被废了一样,信息都很旧,看看要怎么才能联网搜索