解锁智能未来:用Ollama开启你的本地AI之旅

   日期:2024-12-25    作者:o93v3 浏览:81    移动:http://w.yusign.com/mobile/quote/5395.html

 Ollama是一个用于在本地运行大型语言模型(LLM)的开源框架。它旨在简化在Docker容器中部署LLM的过程,使得管理和运行这些模型变得更加容易。Ollama提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。此外,Ollama还支持热加载模型文件,用户无需重新启动即可切换不同的模型。

参考资料

官网:GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.

 介绍文章

从22K star的超强工具:Ollama,一条命令在本地跑 Llama2 - 知乎

 
 
 

phi更小,更方便测试。然后就会进入交互对话的界面了,比如

ollama run phi

>>> 你好
 Hello!  How can I assist you today?


>>>  中国首都是哪里
 Beijing is the capital city of China and it

初步尝试了一下,在本地和AIStudio安装,执行

 

本地显示一个进度条,速度特别慢,估计要2个小时。快慢取决于网速,最终测试安装估计用了4-6个小时。

AIStudio直接在第一步就被拒了,直接报curl Empty reply from server。另Ollama需要pytorch,所以在AIStudio里最终是不适配的。

phi模型只有1.7G,下载速度也比较快,大约几分钟就下好了。

运行和输出

 
 

Ollama是一个强大的工具,适用于希望在本地环境中探索和使用大型语言模型的用户,特别是那些对AI技术有深入兴趣和需求的专业人士。

本文地址:http://w.yusign.com/quote/5395.html    述古往 http://w.yusign.com/static/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关行情
推荐行情
点击排行
{
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号