互联网从业者充电站 头像

消息来源频道

互联网从业者充电站

@https1024

频道28,610 位成员公开可见持续更新

互联网从业者专属 内容多为技术、产品、设计、运营等不同话题内容; 目标人群为程序员、设计师、产品经理、运营管理等不同职能。 投稿/合作: @inside1024_bot 内容来源网络

成员规模28,610 位成员
在线情况待同步
消息总数32,672 条消息
浏览量总数5,085,503 次浏览

在这个频道里搜索消息……

t.me/https1024

来纽约曼哈顿,走 AI 工程师红毯
大家好,上个月我从旧金山去纽约参加了 AI Engineer Summit,这是 AI Engineering 里每年最值得关注的硬核会议,也是一年一度头部 AI 工程师们的“聚会”。整个三年里的体验很魔幻也很好玩,高密度的人和信息量,高效、切身地感受到了 AI 模型当前发展的阶段、瓶颈以及各领域里“大家都在做什么”。
本文总结来自现场 Anthropic、Arc、Every等团队的分享以及“怎么做AI Memory”的第二期,把记忆训练进模型里,而不仅仅放在context engineering。包括:
1. RAG 的局限性
2. 上下文嵌入(Context Embeding): 一种保存领域数据的文本嵌入方式
3. AI Memory:如何把记忆训练到模型里?SFT、RL 、合成数据
4. 如何做模型后训练(Post-training)?LoRA、Prefix、Memory Layer
我最近也在构建一个结合知识图谱的 AI Memory 开源项目,有兴趣 contribute 的朋友可以到文末找我进行交流。