Linux 命名指南:命令和参数,到底哪些能还原成英文?

Linux 命名指南:命令和参数,到底哪些能还原成英文? 很多人学 Linux,第一反应是背命令,第二反应是背缩写,第三步就开始被各种“民科助记图”带沟里。 真相没那么玄:有些命令和参数确实能还原成英文,有些只是历史缩写,有些根本不能硬编。 学 Linux 最省力的方式,不是死记字母,而是搞清楚:哪些能翻译,哪些只能接受。 先说结论 Linux 命令的名字,大致分三类: 完整英文单词:比如 find、sort、less 可以还原的缩写:比如 pwd = print working directory,mkdir = make directory 历史遗留 / 约定俗成:比如 grep、awk、sed,这类别硬猜,查手册更快 参数也一样: 长参数通常就是完整英文:--help、--recursive、--ignore-case 短参数通常只是取一个字母:-r、-i、-v 同一个字母在不同命令里可能不是一个意思 所以核心原则只有一句: 能还原的就还原,不能还原的别硬编。先理解动作,再记字母。 一、命令名:哪些值得还原? 先看一组最常用、而且值得记英文原意的命令。 1. 直接就是英文单词 这些最省心,看到名字就能大概知道它是干嘛的: find:查找 sort:排序 less:分页查看 touch:创建空文件 / 更新文件时间戳 clear:清屏 kill:向进程发送信号 export:导出环境变量 这类命令不用过度解释,按英文单词理解就行。 2. 能还原成英文短语的 这类是最适合新手建立“语义感”的: cd = change directory pwd = print working directory mkdir = make directory rmdir = remove directory cp = copy mv = move rm = remove ps = process status man = manual chmod = change mode chown = change owner 你会发现一件事: ...

March 9, 2026 · 3 min

3月9日 AI 日报

📰 AI 博客每日精选 — 2026-03-09 来自 Karpathy 推荐的 92 个顶级技术博客,AI 精选 Top 10 📝 今日看点 今天技术圈的焦点,集中在“AI 已从辅助走向实质性智力参与”:从前沿模型解答计算机科学难题,到开发者在高压场景下借助生成式工具快速交付,AI 正在逼近研究与工程生产力的核心环节。与此同时,围绕“AI 重写软件”引发的许可、伦理与历史正当性之争明显升温,开源世界开始重新审视“重新实现”这件事在 AI 时代的边界。另一个值得注意的信号是,行业对 AI 的态度正变得更冷静——无论是对商业 AI 权力结构的质疑,还是对 ELIZA 式拟人错觉、伪包管理器和“最小可用工具”的反思,都说明技术圈正在从狂热转向务实。 🏆 今日必读 🥇 Donald Knuth 谈 Claude Opus 解出一个计算机科学问题 Donald Knuth on Claude Opus Solving a Computer Science Problem — daringfireball.net · 5 小时前 · 🤖 AI / ML Knuth 记录了自己研究数周的一个开放计算机科学问题,被 Anthropic 在三周前发布的混合推理模型 Claude Opus 4.6 解出的经历。核心信息不只是“模型答对了”,而是它给出了让 Knuth 认可的、漂亮且可验证的解法,这对长期以严谨著称的理论计算机科学语境尤其关键。文章强调,生成式 AI 在某些高难度推理任务上,已经不再只是辅助写作或代码补全工具,而开始触及真正的数学与算法发现。Knuth 也据此公开修正自己对 generative AI 的既有看法,把这次结果视为一次具有标志性的能力跃迁。 ...

March 9, 2026 · 4 min

3月8日 AI 日报

📰 AI 博客每日精选 — 2026-03-08 来自 Karpathy 推荐的 92 个顶级技术博客,AI 精选 Top 10 📝 今日看点 今天技术圈的主线,正在从“AI 能做什么”转向“AI 该如何持续供给、分发与治理”。一边是面向开源维护者的 AI 扶持计划、基金会新工作组等动作,说明大模型能力正加速嵌入开源基础设施;另一边,关于算力紧张、免费层商业模式和平台信誉的讨论升温,暴露出 AI 普及背后的成本压力与治理焦虑。与此同时,开发者工具、个性化阅读和轻量化 Web 体验持续受关注,也反映出技术社区开始重新重视效率、控制权和更可持续的数字生态。 🏆 今日必读 🥇 面向开源的 Codex Codex for Open Source — simonwillison.net · 4 小时前 · 🤖 AI / ML OpenAI 针对开源项目维护者推出了与 Anthropic 类似的扶持计划:为符合条件的热门开源项目维护者提供 6 个月 ChatGPT Pro 使用资格,定价对标 Claude Max 的 200 美元/月套餐。该计划的核心卖点不只是 ChatGPT Pro 本身,还包含 Codex,以及“有条件的 API 额度”,明显瞄准需要借助 AI 提升维护、审查和开发效率的开源作者群体。时间点上,这一动作紧随 Anthropic 在 2 月 27 日宣布向满足 5,000+ GitHub stars 或 100 万+ NPM 下载量项目维护者赠送 6 个月 Claude Max 之后,形成直接竞争。两家模型公司都在争夺高影响力开源维护者,因为这类用户既是技术意见领袖,也是 AI 编程产品的重要示范人群。作者传递出的关键信号是:面向开源维护者的 AI 补贴战已经开始,OpenAI 正在正面回应 Anthropic 的攻势。 ...

March 8, 2026 · 5 min

3月7日 AI 日报

📰 AI 博客每日精选 — 2026-03-07 来自 Karpathy 推荐的 92 个顶级技术博客,AI 精选 Top 10 📝 今日看点 今天技术圈的焦点,正从“功能创新”转向“底层控制权”之争:一边是持续多年未被察觉的 iOS 高强度利用工具包曝光,提醒人们移动安全与供应链防御仍存在深层脆弱点;另一边,AI 公司与国防体系的合作加速,显示大模型竞争正从产品赛道升级为国家战略与产业分层的博弈。与此同时,工程实践也在回归现实主义——无论是代理式测试、遗留系统审计,还是自建邮件与基础设施折腾,核心都指向一个共识:技术价值不只在“能做什么”,更在“是否可验证、可掌控、可长期运行”。平台治理与生态控制同样升温,从应用商店反垄断到去中心化社区再评价,行业正在重新审视“谁拥有入口、谁定义规则”。 🏆 今日必读 🥇 Google 威胁情报团队披露:来源神秘的强大 iOS 利用工具包 Coruna Google’s Threat Intelligence Group on Coruna a Powerful iOS Exploit Kit of Mysterious Origin — daringfireball.net · 6 小时前 · 🔒 安全 一套名为“Coruna”的高强度 iOS 利用工具包,暴露出 2019 年 9 月发布的 iOS 13.0 到 2023 年 12 月发布的 iOS 17.2.1 之间,苹果 iPhone 长时间存在可被系统化利用的攻击面。Google Threat Intelligence Group 识别出该工具包包含 5 条完整 iOS 攻击链、共 23 个漏洞利用,核心价值不在单点 0day,而在于覆盖面完整、组件化程度高,足以支撑稳定实战攻击。它表明攻击者不仅掌握内核、沙箱逃逸等关键环节,还具备把多代系统漏洞串联成“可运营武器库”的工程能力。对防御方而言,这类 exploit kit 的危险在于可复用、可组合、可迁移,意味着补丁管理和版本滞后会被持续放大。结论是,Coruna 不是零散漏洞集合,而是接近工业级的 iOS 攻击平台,反映出高端移动端攻防已进入体系化阶段。 ...

March 7, 2026 · 4 min

3月6日 AI 日报

📰 AI 博客每日精选 — 2026-03-06 来自 Karpathy 推荐的 92 个顶级技术博客,AI 精选 Top 10 📝 今日看点 今天的技术讨论集中在两条主线上:一是 AI 代码生成与重写带来的身份与授权边界问题,洁净室模式与“忒修斯之船”式重实现引发新的法律与项目归属争议。二是生成式 AI 在高风险场景的可靠性与责任缺位被再次敲响警钟,税务与医疗等领域强调可解释、可审计而非概率拼接。工程实践层面则关注构建与系统机制的“隐形规则”,从包管理器的魔法文件到 Windows 消息派发时序,体现了基础设施细节对行为的决定性影响。工具生态继续探索更统一的交互体验,把复杂版本控制操作抽象到 LSP 级别,试图跨编辑器复用能力。 🏆 今日必读 🥇 编码代理能否通过“洁净室”实现重新许可开源代码? Can coding agents relicense open source through a “clean room” implementation of code? — simonwillison.net · 6 小时前 · ⚙️ 工程 核心问题是编码代理生成的“洁净室”式实现是否会改变开源代码的许可边界与法律风险。文章回顾了 Compaq 1982 年通过双团队隔离逆向 IBM BIOS 的经典洁净室案例,说明其关键在于规格与实现团队的严格隔离。作者指出如今的编码代理可以从测试、接口描述或自然语言需求生成全新实现,形成“功能等价但路径不同”的代码。以 chardet 等项目为例,新的实现可能不含原代码,却在行为上兼容,模糊了许可与衍生作品的界限。结论是:技术上可行不等于法律上安全,必须重新审视“洁净室”在 AI 时代的合规标准。 💡 为什么值得读: 它把 AI 代码生成与开源许可的灰色地带讲清楚,适合需要评估合规风险的开发者阅读。 🏷️ coding agents, clean room, open source, licensing ...

March 6, 2026 · 4 min

3月5日 AI 日报

📰 AI 博客每日精选 — 2026-03-05 来自 Karpathy 推荐的 92 个顶级技术博客,AI 精选 Top 10 📝 今日看点 今天技术圈的主线集中在两端:一边是开源大模型快速迭代与提示工程边界的再讨论,反映出对“能力提升”与“方法论风险”的双重关注;另一边是工程实践的自省,从反模式、依赖冷却期到“看似不会失败”的 API,都在提醒稳定性和协作质量才是底盘。与此同时,硬件与平台话题继续升温,苹果的产品兼容与芯片定位变化折射出生态重心的迁移。整体看,行业在性能竞速与工程秩序之间寻找新的平衡点。 🏆 今日必读 🥇 Qwen 的局势似乎有变 Something is afoot in the land of Qwen — simonwillison.net · 11 小时前 · 🤖 AI / ML 核心焦点是阿里 Qwen 团队近期发布的 Qwen 3.5 开源大模型家族与团队动向。作者认为 Qwen 3.5 过去几周的密集发布非常突出,可能代表该系列的里程碑。与此同时,过去 24 小时内的高层离职引发对团队未来的担忧。文章以 Junyang Lin 的一条推文为导火索,串联事件背景。作者的态度是希望 Qwen 3.5 不会成为“绝唱”。 💡 为什么值得读: 既有模型发布进展,也涉及团队变动与风险判断,适合关注国产开源大模型生态的人快速把握风向。 🏷️ Qwen, open-weights, LLM, Alibaba 🥈 反模式:应避免的做法 Anti-patterns: things to avoid — simonwillison.net · 10 小时前 · ⚙️ 工程 ...

March 5, 2026 · 3 min

Justin Sung的PERO学习理论

我最近一直在用的学习方法,借助AI直接做成skillhttps://github.com/originem0/agent-skills/tree/master/skills/PEROlearn 关键词:建立有缺口的框架、把单个的知识点或概念串成逻辑链、事后主动复述。 自从有了AI的辅助,我才体会到什么是因材施教,不厌其烦,由此生出学习渴望。 我与它交互的经验有:1、尽可能的暴露自己的缺口,让它真正理解你的需求,才更好针对解答。2、个人主动性,以前老师常说“不懂就问”,现在这种机会唾手可得,所以不要吝啬追问、不要停于表面。3、开始前,与它探讨以确认自己真正的目标。事后,怎么验收成果。 终身成长,自我约束 步骤 核心动作 目的 P - Priming(启动) 快速浏览,建立有缺口的框架 让大脑知道"这是相关的,要留意" E - Encoding(编码) 找核心锚点,建立逻辑链 深度加工,形成神经连接 R - Reference(外包) 细节放笔记,大脑只记核心关系 释放认知负荷 R - Retrieval(检索) 主动回忆,不看资料说出来 强化神经通路,暴露漏洞 I - Interleaving(交错) 混合不同主题练习 训练"识别问题类型“的能力 O - Overlearning(过度学习) 学会后继续练习达到自动化 可选,针对需要熟练度的技能 学习理论 油管博主Justin Sung的学习理论或学习方法有何亮点? Gemini:Justin Sung 是一位专注于高效学习(High-Efficiency Learning)的 YouTuBer 和学习教练,他的核心理念建立在认知心理学和神经科学的基础上。 不同于市面上常见的“番茄工作法”或单纯的“记笔记技巧”,Justin Sung 的理论更侧重于大脑如何处理和存储信息。他主张通过改变大脑的编码方式(Encoding)来减少对重复记忆(Rote Memorization)的依赖。 以下是 Justin Sung 学习理论和方法的几大核心亮点: 核心系统:PERO 模型 他将高效学习拆解为一个完整的流程,称为 PERO System: P - Priming (启动/预习):在正式学习前,先快速浏览内容建立“脚手架”或“蓝图”。亮点:这不仅是预习,而是为了让大脑建立“相关性过滤器”(Relevance Filter)。如果不做 Priming,大脑会因为觉得新信息“无关”而迅速遗忘。 E - Encoding (编码):这是他理论中最核心的部分。指将原本杂乱的信息转化为大脑易于理解和存储的结构(如分类、简化、建立联系、类比)。亮点:他认为大多数人学习效率低是因为"编码"这一步做得太浅(Lower Order Learning),导致只能靠大量重复来弥补。高效学习者在"编码"阶段花费最多脑力,从而在无需大量复习的情况下也能记住。 ...

March 4, 2026 · 2 min

Claude Code AI 开发实战指南

基于 Anthropic 内部最佳实践(Boris 分享)+ 个人实操总结的可执行操作手册。 核心理念:头脑风暴 → 计划 → 执行,前期功夫占最大分量。 底层逻辑见 [[AI协同开发的第一性原理]] 总览:三阶段工作流 模糊想法 │ ▼ ┌─────────────────────────────────────────────┐ │ 第一阶段:头脑风暴(该不该做?做什么?) │ │ ├─ 关卡1:问题审视(这个想法在解决什么?) │ │ ├─ 关卡2:最小可行性验证(技术上做得到吗?) │ │ └─ 关卡3:方案比较 + 预验尸(用哪种方案?) │ │ │ │ ⚠️ 占总精力 30-40%(最容易被跳过,也最值钱) │ └──────────────────────┬──────────────────────┘ │ 三个关卡全部通过 ▼ ┌─────────────────────────────────────────────┐ │ 第二阶段:计划(怎么做?) │ │ ├─ Plan 模式出详细方案 │ │ ├─ 创建/更新项目 CLAUDE.md │ │ └─ 规划测试场景 │ │ │ │ 占总精力 20% │ └──────────────────────┬──────────────────────┘ │ 计划审查通过 ▼ ┌─────────────────────────────────────────────┐ │ 第三阶段:执行(动手做) │ │ ├─ 并行 worktree 工作流 │ │ ├─ 建立测试 → 自动修 bug │ │ └─ 子代理分流 │ │ │ │ 占总精力 40-50% │ └─────────────────────────────────────────────┘ 大部分人的精力分配是 5% / 10% / 85%。这就是做到后面越偏越远的根本原因——计划建立在未经验证的假设上,执行得越好偏得越远。 ...

March 4, 2026 · 5 min

大语言模型LLM"

从零建立 LLM 知识体系 从"语言模型是什么"出发,沿 基础原理 → 架构 → 训练 → 对齐 → 应用 的主线展开,每个模块建立因果逻辑链。 语言是人类知识的通用载体。学会预测语言 ≈ 被迫学会语言中编码的知识和推理。规模放大了这个效应。 前置知识 LLM在更大的技术体系中的位置? 人工智能 (AI) └── 机器学习 (ML) └── 深度学习 (神经网络) └── 自然语言处理 (NLP) └── 语言模型 (LM) └── 大语言模型 (LLM) 简要认识一下: 人工智能 (Artificial Intelligence):让机器做通常需要人类智能的事。 机器学习 (Machine Learning):AI的一个子集。核心区别,不是人写规则,而是让机器从数据中自己学出规则。 深度学习 (Deep Learning):ML的一个子集。用的工具是多层神经网络,很多层简单计算单元叠在一起,深就是层数多。 自然语言处理 (Natural Language Processing):AI里专门处理人类语言的分支。 LLM是深度学习在语言领域的一个特定应用。 LLM是什么(程序员视角)? 很多技术我们不知道它是什么,不妨先把它整体看作一个有输入和输出的黑箱。 你觉得它和传统软件或应用程序有什么区别?比如一个计算器程序,用户输入1+1,输出为2。如果你用过ChatGTP,你就会发现输入同样的问题,它每次回答的内容都不尽相同。 传统软件,是程序员根据需求严格编好的一套规则——代码,每一步行为都是人预先定义好的。 ChatGTP,没有人写过“如果用户问X就回答Y”的规则。它是吃了互联网上几万亿字的文本,然后从中学出来的,没有人能完整说清他内部到底学了什么。 我们可以确认模型内部形成了某种对语言世界的理解结构,不停的预测下一个输出是什么。 LLM是一个从海量文本中学会了**”给定上下文,什么是合理的下一套token“**这套规则的模型。 基础概念 Token(输入的基本单位) ↓ 概率分布(模型对下一个 token 的预测方式) ↓ 上下文窗口(模型能看到多少 token 来做预测) token(BPE分词) 我们使用各家厂商的模型,经常听到花费多少token,那token究竟是什么?这个我们要回到自然语言处理,有一个专业术语叫tokenization(分词/标记化)。 人类认识文本以字或词来为最小的一个意义单元。 ...

March 4, 2026 · 3 min

3月4日 AI 日报

📰 AI 博客每日精选 — 2026-03-04 来自 Karpathy 推荐的 92 个顶级技术博客,AI 精选 Top 10 📝 今日看点 今天技术圈的主线集中在两端:一方面是低价高效的大模型与“讨好式”风险的再讨论,既追求性价比也在追问可靠性边界。另一方面,苹果以 M5 系列带动的硬件升级密集发布,性能与 AI 能力成为新品叙事核心。与此同时,工程实践层面继续关注基础设施的痛点与自动化落地,从包管理命名难题到 AI 直接写入代码库的工具化趋势。 🏆 今日必读 🥇 Gemini 3.1 Flash-Lite Gemini 3.1 Flash-Lite — simonwillison.net · 1 小时前 · 🤖 AI / ML Google 发布了 Gemini 3.1 Flash-Lite,定位为低价高效的 Flash-Lite 系列更新。定价为输入 $0.25/百万 tokens、输出 $1.5/百万 tokens,仅为 Gemini 3.1 Pro 的 1/8。模型支持四档“思考级别”,可在推理深度与成本之间做权衡。作者展示了用不同思考级别生成四种鹈鹕结果,体现可控推理风格。结论是该版本以极低成本提供可调推理能力,适合大规模调用场景。 💡 为什么值得读: 值得读是因为它直接给出新模型的价格/能力定位与可控推理特性,便于快速判断是否适合你的成本与质量需求。 🏷️ Gemini, LLM, pricing, model-release 🥈 苹果推出搭载 M5 Pro 与 M5 Max 的 MacBook Pro ...

March 4, 2026 · 4 min