ps:所有看不懂的名词都可以问问ai
Windows 是全球使用最广泛的操作系统之一,拥有庞大的用户群体。因此,在 Windows 平台上开发和部署 AI 大模型可以更容易地接触到更广泛的用户群体,从而推动 AI 技术的普及和应用。
Windows 平台提供了丰富的开发工具和资源,例如 Visual Studio、Python 等,这使得开发人员能够更轻松地创建和部署 AI 大模型。此外,Windows 平台还支持多种硬件设备,包括 GPU、FPGA 等,这使得 AI 大模型能够在 Windows 平台上高效运行。
Windows 平台还拥有强大的安全性和稳定性,这使得 AI 大模型能够在 Windows 平台上安全地运行,并且保证其稳定性和可靠性。此外,Windows 平台还提供了丰富的应用程序和服务,这使得 AI 大模型能够更好地与其他应用程序和服务集成,从而提高其可用性和实用性。
总之,选择 Windows 平台作为 AI 大模型的开发和部署平台,可以充分利用 Windows 平台的优势,提高 AI 大模型的开发效率和应用价值。
综上所述,Windows 平台作为 AI 大模型的开发和部署平台,存在一些劣势和限制。因此,在选择 Windows 平台时,需要充分考虑其硬件、性能、安全性和开发工具等方面的因素,以确保 AI 大模型的顺利运行和应用。
国内用户想用也比较难,你说嘛
用啊,但是我们今天不是要自己部署一个本地的模型么?
ollama的官方文档可以在以下链接中找到:
3月14日起,Ollama 现在支持 AMD 显卡,也就是说,对全平台兼容性最好的软件就是ollama了。
这些资源可以帮助您了解如何部署和使用ollama,包括安装步骤、配置方法和API的使用。
安装完ollama后,去models页面
https://ollama.com/library
找到你要的model模型
直接复制命令
你的任务栏就会有个羊驼图标了
至此你的本地模型已经部署完毕,现在可以在命令行这个黑底白字的地方使用,但你肯定觉得不舒服,所以,我们接着配置一个客户端,调用ollama使用。
Chatbox支持多款全球最先进的AI大模型服务,支持Windows、Mac和Linux。AI提升工作效率,深受全世界专业人士的好评。
下载链接 https://chatboxai.app/zh
安装好ChatBox后,需要配置api
开问!
至此,篇一已结束,接下来的篇二,我们玩玩docker。