标签: AI
-
使用 llama.cpp 打造你的专属本地大语言模型服务
查看全文:使用 llama.cpp 打造你的专属本地大语言模型服务是否曾想过拥有一个完全私有、无需联网、响应迅速的个人 AI 助手?大语言模型(LLM)在各种任务中的表现令人惊…
-
使用远程服务器加速 Immich 的机器学习推理
查看全文:使用远程服务器加速 Immich 的机器学习推理为了显著提升 Immich 在执行照片和视频分析等任务时的机器学习推理性能,可以将 Immich 的机器学习容…
-
IT 模型与 PT 模型的区别解析:指令微调与量化感知训练的应用
查看全文:IT 模型与 PT 模型的区别解析:指令微调与量化感知训练的应用在大模型领域,模型的不同训练阶段和量化技术影响了其性能、推理速度、资源需求等方面。以下将详细解析 IT 模型、…
-
Ollama 与 LangChain构建本地化且强大的 LLM 生态系统
查看全文:Ollama 与 LangChain构建本地化且强大的 LLM 生态系统在大型语言模型(LLM)的快速发展中,Ollama 将继续简化本地部署流程,帮助开发者更加便捷地运行 LLM,…
-
基于LangChain和Ollama的本地文档问答系统
查看全文:基于LangChain和Ollama的本地文档问答系统使用 LangChain 框架和 Ollama 开源大模型搭建一个问答系统,根据提供的文档内容回答用户提出的问…
-
深度学习模型的优化与部署让 AI 更轻、更快、更实用
查看全文:深度学习模型的优化与部署让 AI 更轻、更快、更实用优化和部署深度学习模型是一项综合性的工作,涉及到硬件、算法、软件工程等多个方面。没有万能的解决方案,关键在于理…