在大电视上使用 Meta Llama 3.2 中文版本地大模型,无须登录没有限制,尽情提问 (问答服务器是一台内置 M1 芯片的 Macbook Pro,运行免费的 ollama 服务应用) 🤭
为什么重新发这个略显重复的话题?因为我发现有些对信息科技无感的人一直没明白“本地大模型”真的是“本地”可用——我得告诉他们,哪怕把家里路由器关掉,宽带网费也不交了,仍可以用 ollama 应用组合与智能对话助手交流 😳
◈ 相关分享¹ https://m.okjike.com/originalPosts/67073e37cffe72b46584cff4
◈ 相关分享² https://m.okjike.com/originalPosts/66fa6735e9b86c21a54680c5
为什么重新发这个略显重复的话题?因为我发现有些对信息科技无感的人一直没明白“本地大模型”真的是“本地”可用——我得告诉他们,哪怕把家里路由器关掉,宽带网费也不交了,仍可以用 ollama 应用组合与智能对话助手交流 😳
◈ 相关分享¹ https://m.okjike.com/originalPosts/67073e37cffe72b46584cff4
◈ 相关分享² https://m.okjike.com/originalPosts/66fa6735e9b86c21a54680c5