好资源和短想法
高原笔记(Plateau Notes)
最近我重新研究了 Andy Matuschak 关于 [[Evergreen Notes]] 的论述,以及 Robert Haisfield 关于 Joel Chan、Beau Haan 等人如何在 Roam 中处理笔记的视频采访,收益颇丰。
我最终研究和优化出我的新笔记体系:[[Plateau Notes]] 高原笔记,引用德勒兹哲学化了的概念,它比我的 [[Instant Notes]] 即刻笔记维度更高,将拉起我的整个知识库,也将盘活我所有的 [[Evergreen Notes]]。
高原笔记以主题和集群的方式拔起内容,如果说 [[Instant Notes]] 以更现代更快节奏的方式组装内容,成就了这个频道,那高原笔记将以更全面和深层地打开我过去几年的知识积累和潘多拉状态。这里不过多介绍,直接看图片。(图片由 Nano Banana 制作)
我的 [[Plateau Notes]] 和 [[Evergreen Notes]] 紧密相关,但比 Andy 概念的常青笔记更具操作性和知识生产引导意义。
现在每个人都在消费信息,却很少人消化,更难形成知识。我现在对我的工作和定位更清晰了,我将持续研究知识如何产生和运作、如何更好地发现和建造知识,就像解析爱因斯坦方程的复杂性一样。
相关笔记
1 Haisfield Youtube
2 Instant Notes 2.0 预告
3 Evergreen Note
#roam #pkm
最近我重新研究了 Andy Matuschak 关于 [[Evergreen Notes]] 的论述,以及 Robert Haisfield 关于 Joel Chan、Beau Haan 等人如何在 Roam 中处理笔记的视频采访,收益颇丰。
我最终研究和优化出我的新笔记体系:[[Plateau Notes]] 高原笔记,引用德勒兹哲学化了的概念,它比我的 [[Instant Notes]] 即刻笔记维度更高,将拉起我的整个知识库,也将盘活我所有的 [[Evergreen Notes]]。
高原笔记以主题和集群的方式拔起内容,如果说 [[Instant Notes]] 以更现代更快节奏的方式组装内容,成就了这个频道,那高原笔记将以更全面和深层地打开我过去几年的知识积累和潘多拉状态。这里不过多介绍,直接看图片。(图片由 Nano Banana 制作)
我的 [[Plateau Notes]] 和 [[Evergreen Notes]] 紧密相关,但比 Andy 概念的常青笔记更具操作性和知识生产引导意义。
现在每个人都在消费信息,却很少人消化,更难形成知识。我现在对我的工作和定位更清晰了,我将持续研究知识如何产生和运作、如何更好地发现和建造知识,就像解析爱因斯坦方程的复杂性一样。
相关笔记
1 Haisfield Youtube
2 Instant Notes 2.0 预告
3 Evergreen Note
#roam #pkm
#系统编程
《Performance Engineering of Software Systems》,MIT公开课,课程涵盖性能分析、高性能算法技术、指令级优化、缓存优化、并行编程以及构建可扩展系统等主题。
《Performance Engineering of Software Systems》,MIT公开课,课程涵盖性能分析、高性能算法技术、指令级优化、缓存优化、并行编程以及构建可扩展系统等主题。
如果对 debug 感兴趣,大家可以依次看我心目中最厉害的 debugger 的三个视频和一个播客,能学到非常多的东西:
1. Real World Debugging with eBPF
https://www.youtube.com/watch?v=nggZEwGLC-Q
2. eBPF for Python Troubleshooting
https://m.bilibili.com/video/BV1bJz9YTEGJ
3. gdb -p $(pidof python)
https://bilibili.com/video/BV121Wnz1ELm
4. 播客《和 Gray 聊聊那些年遇到的神奇 Bug》
https://pythonhunter.org/episodes/ep35
1. Real World Debugging with eBPF
https://www.youtube.com/watch?v=nggZEwGLC-Q
2. eBPF for Python Troubleshooting
https://m.bilibili.com/video/BV1bJz9YTEGJ
3. gdb -p $(pidof python)
https://bilibili.com/video/BV121Wnz1ELm
4. 播客《和 Gray 聊聊那些年遇到的神奇 Bug》
https://pythonhunter.org/episodes/ep35
Roam Research 丨上下文工程(Context Engineering)的思维飞行实践
https://mp.weixin.qq.com/s/F1dZGAAAwMakj3bTfk2rcA?scene=1
Andrej Karpathy 最近解释了他对上下文工程(Context Engineering)的看法。他认为在工业级大模型应用场景中,「上下文工程」是指一种更精妙而复杂的技术,需要精准地将上下文窗口填充上恰当好处的信息,让模型能够准确地迈出下一步。这是一门科学,也是门技术。
Roam Research 仍然是近几年最伟大的思维工具,现在用得越来越爽。最近我梳理其基础功能时发现,它仍然极致简洁和扎实,没有进行更多功能扩张,只是不断地优化基础。它不像工具,而像编程语言,它由更灵活的小众编程语言 Clojure 创建。它继承 Memex 的关联索引,参考 Project Xanadu 文本映射,基于 Zettelkasten 组织理念,创造出了「非线性时间机器」。Roam Research 的大纲/ 双链/ 引用和嵌入功能统合起来,震颤出独一档的记录和写作体验。这是我最近几年将其作为主力使用的原因,这种亲文本设计是所有文本优化的基础,实现了「上下文工程」的文本实践。
...
写作将变得愈加疯狂...
很多图示,详细内容请大家直接看这篇公众号吧,顺便点个关注,感谢!
#tft #Manuals
https://mp.weixin.qq.com/s/F1dZGAAAwMakj3bTfk2rcA?scene=1
Andrej Karpathy 最近解释了他对上下文工程(Context Engineering)的看法。他认为在工业级大模型应用场景中,「上下文工程」是指一种更精妙而复杂的技术,需要精准地将上下文窗口填充上恰当好处的信息,让模型能够准确地迈出下一步。这是一门科学,也是门技术。
Roam Research 仍然是近几年最伟大的思维工具,现在用得越来越爽。最近我梳理其基础功能时发现,它仍然极致简洁和扎实,没有进行更多功能扩张,只是不断地优化基础。它不像工具,而像编程语言,它由更灵活的小众编程语言 Clojure 创建。它继承 Memex 的关联索引,参考 Project Xanadu 文本映射,基于 Zettelkasten 组织理念,创造出了「非线性时间机器」。Roam Research 的大纲/ 双链/ 引用和嵌入功能统合起来,震颤出独一档的记录和写作体验。这是我最近几年将其作为主力使用的原因,这种亲文本设计是所有文本优化的基础,实现了「上下文工程」的文本实践。
...
写作将变得愈加疯狂...
很多图示,详细内容请大家直接看这篇公众号吧,顺便点个关注,感谢!
#tft #Manuals
https://arxiv.org/abs/2305.18290 #llm #ai
今天深入学习了 DPO,再次感叹扎实的数学功底对 AI/ML Research 的重要性……
原始的 RLHF 是用 pairwise human preference data(A 和 B 哪个更好)去训练一个 reward model,然后用 RL 来训练主 model,objective 是 maximize reward / minimize negative log likelihood 加上 regularization。比如 PPO 就是通过新旧 policy 之间的 KL Divergence 来做 regularization。而且还需要一个 critic model 来预测 reward。这套流程涉及多个模型,而 RL 又是出了名的难搞。
DPO 的思路是,观察到 RLHF 的 objective 本质上是 minimize loss over (latent) reward function,通过一番 reparameterization 等数学推导,重新设计了一个 minimize loss over policy 的 objective,直接绕过了中间这个 reward model,让 gradient update 直接增加 winner response 的概率并降低 loser response 的概率,大幅简化了流程。
拓展阅读:
- KTO: 更进一步,不需要 pairwise comparison,只用对 individual example 的 upvote/downvote 也可以学习到 preference。
- IPO: 解决 DPO 容易 overfit 的问题。
今天深入学习了 DPO,再次感叹扎实的数学功底对 AI/ML Research 的重要性……
原始的 RLHF 是用 pairwise human preference data(A 和 B 哪个更好)去训练一个 reward model,然后用 RL 来训练主 model,objective 是 maximize reward / minimize negative log likelihood 加上 regularization。比如 PPO 就是通过新旧 policy 之间的 KL Divergence 来做 regularization。而且还需要一个 critic model 来预测 reward。这套流程涉及多个模型,而 RL 又是出了名的难搞。
DPO 的思路是,观察到 RLHF 的 objective 本质上是 minimize loss over (latent) reward function,通过一番 reparameterization 等数学推导,重新设计了一个 minimize loss over policy 的 objective,直接绕过了中间这个 reward model,让 gradient update 直接增加 winner response 的概率并降低 loser response 的概率,大幅简化了流程。
拓展阅读:
- KTO: 更进一步,不需要 pairwise comparison,只用对 individual example 的 upvote/downvote 也可以学习到 preference。
- IPO: 解决 DPO 容易 overfit 的问题。
https://100r.co/site/about_us.html
> Hundred Rabbits is a small artist collective. Together, we explore the planned failability of modern technology at the bounds of the hyper-connected world. We research and test low-tech solutions and document our findings with the hope of building a more resilient future.
> We live and work aboard a ship called Pino. Sailing around the Pacific Ocean made us realize how fragile the modern computing stack was. Living in remote uninhabited parts of the world has offered us a playground to learn how technology degrades beyond the shores of the western world.
> Hundred Rabbits is a small artist collective. Together, we explore the planned failability of modern technology at the bounds of the hyper-connected world. We research and test low-tech solutions and document our findings with the hope of building a more resilient future.
> We live and work aboard a ship called Pino. Sailing around the Pacific Ocean made us realize how fragile the modern computing stack was. Living in remote uninhabited parts of the world has offered us a playground to learn how technology degrades beyond the shores of the western world.
https://maxsiedentopf.com/ 的一个作品今天上了 HN 首页;其实他的整个 portfolio 都很有创造力
https://jax-ml.github.io/scaling-book/
非常值得学习的分享,作者列表里好几个 Gemini 核心团队的人😃 Sholto、Jacob、Sharad 等人都是超一流的 research engineer 🙏
#llm
非常值得学习的分享,作者列表里好几个 Gemini 核心团队的人😃 Sholto、Jacob、Sharad 等人都是超一流的 research engineer 🙏
#llm