张咋啦 AI 学习笔记全纪录
随着 AI 技术的飞速普及,单纯地“会用”工具已经不再稀缺,真正的壁垒在于如何把散落的 AI 能力拼装成一套系统性的工作流。
博主“张咋啦”在社交平台上分享了非常多极其硬核、接地气的 AI 实战与 Agent 理念。这篇笔记就是我对她所有 AI 分享内容的系统性学习梳理和复盘记录,是一份写给自己的“AI 武器库进化指南”。
随着学习的深入,本笔记会保持持续迭代与更新。
💡 板块一:AI Native 核心思维框架
(学习记录待补充整理)
张咋啦在诸多干货中曾反复强调的一点核心是:不要把 AI 当作百度或者聊天机器人,要把 AI 当成一个自带大脑的、被你绝对雇佣的外包团队。
- 结构化提问:如何写出让大模型“少犯错、好执行”的结构化 Prompt,让 AI 做填空题而不是做解答题。
- 解耦操作逻辑:不要指望大模型一次性解决极其复杂的问题,要把它拆解成“提取资料 ➔ 深度思考总结 ➔ 结构化格式输出”的多个独立节点。
📊 板块二:常用黑科技与 Agent 设计模式
(学习记录待补充整理)
张咋啦拆解过很多基于开源生态衍生出来的玩法,这一板块将作为速查表,记录那些能极大提升日常效率的单点技能和思路:
- 内容沉淀与无头爬虫:如何安全高效地提取特定账号的干货内容。
- 多模态与前端排版打通:让大模型不仅能说话,还能输出精美的 Markdown、甚至直接生成幻灯片 HTML 代码体系。
🛠️ 板块三:实战落地 - 行业大佬资讯全自动投送管线
这是我跟着张咋啦的思路,结合自身需求彻底跑通并实现本土定制化的第一个硬核全自动化工作流项目。
这个实战流程的目标非常清晰:在每天早晨我第一次掀开电脑屏幕(唤醒)时,系统在后台默默帮我抓取指定的推特(X)及播客信息源,交给国产大模型做精细化的双语排版提炼,最后发送一份极具排版美感的早报到我的个人邮箱。
以下是完整的工作流闭环解析:
1. 抓取与提取 (prepare-digest.js)
这是数据的源头阶段。利用已有的 Agent Skill (follow-builders),配置好我们需要追踪的行业大佬账号和一些优质 RSS 播客源。
- 脚本会在后台无感拉取当天最新的内容更新。
- 输出为未经处理的原生结构化 JSON 数据。
2. AI 深度排版与翻译 (generate-digest.js)
为了让资讯拥有最高效的阅读体验,我们将 JSON 重定向引流到国内大模型 智谱 AI (GLM-4) 的 API 接口,进行数据重塑。
定制化 Prompt 设计要点:
- 严格中英对照:对于每一条动态,强制 AI 先输出原文,紧接着紧贴输出精准流畅的中文翻译。
- 信息溯源:强制要求每一条总结的最后,必须抓取并附加上跳转回原帖的源链接 (
Source URL)。 - 板块清晰独立:依据信息源类型,精准划分为 “Tweets”(推文)和 “Podcasts”(播客)等分区。
3. 自动化邮件投送 (deliver.js)
经过大模型洗礼并排版完毕的 Markdown 流直接接入发信逻辑。
- 底层接入 Resend API 构建发信服务。
- 采用专属定制域名发件地址
digest@bettercall12.cc作为发件人,避免垃圾邮件拦截。 - 将最终内容精准无误地投送至我的主接收邮箱
972831161@qq.com。
4. 唤醒即触发的底层引擎 (macOS LaunchAgent)
我不仅完全抛弃了依赖定时常开机的 Crontab,而是利用苹果底层原生守护进程机制 LaunchDaemons (launchctl)。
配合编写了一套带有 StartCalendarInterval 参数的 .plist 配置文件。以此实现了:只要熬过了早晨设定的时间阈值,在我掀开电脑、指纹解锁系统的发生“唤醒”的那一瞬间,整个底层的 Node 管道链:
node prepare-digest.js | node generate-digest.js | node deliver.js就会瞬时连贯执行完成。
📝 总结与未来追踪
这篇笔记目前才刚刚起步。通过打通“拉取 ➔ 大脑重构 ➔ 触达送件”这个最小闭环,能清晰地感觉到属于每一个数字牧民自己的自动化军械库正在成型。
未来我将继续挖掘和复刻 Zara 体系下更多的智能流设计。
- 探索视频脚本的自动化切片与内容降维打击。
- 建立基于私人内容源的本地长期知识库引擎。
部分信息可能已经过时















