Telegram Group Search
什么是 Agent2Agent(A2A)协议?

Agent2Agent(A2A)协议是由谷歌发布的全新开放标准,旨在解决当前 AI 代理之间协作困难的问题。目前的 AI 代理虽然能够完成特定任务,但在相互传递工作时需要依赖定制化的代码,这使得跨代理协作变得复杂且不灵活。A2A 协议通过定义一种轻量级的通信机制,允许一个代理发现、认证并从另一个代理接收结果流,无需共享提示上下文或重新实现认证机制。

A2A 协议的出现是为了解决多代理协作中的痛点,例如不稳定的交接、安全限制以及供应商锁定等问题。它通过定义“代理卡”(Agent Card)、“任务”(Task)状态机以及流式传输的“消息”(Messages)或“工件”(Artifacts),使得客户端代理能够与远程代理进行安全且高效的通信。A2A 协议并不取代现有的模型上下文协议(MCP),而是作为其补充,填补了代理之间的协作空白。

在 A2A 协议中,客户端代理负责发现远程代理的代理卡,决定是否满足其认证方法,并通过 JSON-RPC 消息创建任务。任务一旦创建,客户端代理将作为任务的管理者,监听状态事件、转发远程代理请求的输入,并最终收集工件以供后续使用。而远程代理则负责执行任务的核心工作,并通过流式事件向客户端代理反馈任务状态和工件更新。

A2A 协议的通信机制是单向的,仅客户端代理能够发起 JSON-RPC 请求,而远程代理则负责更新任务状态。这种通信模式类似于“前台与后台”的协作关系,客户端代理负责接收新订单并传达澄清信息,远程代理则专注于完成任务,直到结果交付。

A2A 协议在架构上位于 MCP 之上,与工作流编排工具并行。它专注于网络层面的代理间通信,而 MCP 则专注于单个代理内部的工具调用。这种分层设计使得框架和供应商能够在底层进行创新,同时保持协议的简洁性和通用性。

在安全性方面,A2A 协议通过签名代理卡、多种认证方式以及运行时策略来确保通信的安全性。代理卡可以通过 JSON Web Signature(JWS)进行签名,客户端代理可以验证签名以防止代理卡被篡改。此外,A2A 协议还支持多种认证方式,包括简单的 Bearer 令牌、双向 TLS 以及企业级的单点登录流程。远程代理还可以在模型运行前对负载进行检查,拒绝过大或风险较高的负载。

在可观察性方面,A2A 协议的每个状态或工件事件都携带时间戳、任务 ID 和可选的跟踪头。通过将 A2A 客户端包装在 OpenTelemetry 中间件中,可以轻松实现端到端的跟踪,无需手动解析 JSON 数据。这些跟踪数据可以被集成到企业的可观察性平台中,以便在问题影响客户之前及时发现并解决。

在发现机制方面,目前 A2A 协议的发现机制主要依赖于团队内部的 YAML 文件或谷歌的 Vertex AI 目录。未来,随着公共注册中心的成熟,可能会出现类似 npm 的代理注册中心,但目前还没有统一的“验证徽章”。

A2A 协议相比 MCP 在安全性上有显著提升。MCP 会暴露工具的自然语言提示,容易受到注入攻击和参数篡改。而 A2A 协议将这些细节隐藏在远程代理的内部,客户端代理只能看到高级任务和受限的工件,从而消除了整个类别攻击的可能性。

尽管 A2A 协议的愿景非常美好,但截至 2025 年 5 月,其实际应用仍处于早期阶段。大约有 50 家供应商宣布支持 A2A 协议,但大多数代理仍处于“私信获取演示”的阶段。目前,LangGraph、CrewAI 和 AutoGen 的适配器已经较为成熟,而 Flowise 和 n8n 仍处于社区测试阶段。此外,目前还没有公共注册中心,团队主要依赖 YAML 文件或 Vertex AI 的私有目录来管理代理。很少有代理提供签名的代理卡,而速率限制或计费上限则需要通过自定义中间件实现。在性能方面,谷歌的参考服务器在本地测试中每个跳数增加约 30 毫秒的延迟。

A2A 协议适用于跨供应商工作流、安全敏感的黑盒代理、混合技术栈以及需要进度更新的长时间运行任务。它为不同供应商的代理提供了共享握手、认证和流式通信的能力,而无需暴露底层提示细节。然而,对于运行在同一进程中的代理、小型脚本任务、一次性数据拉取或主要依赖复杂参数验证的工具,A2A 协议可能过于复杂,直接使用 API 调用或简单的 REST 端点可能更为合适。

A2A 协议为 AI 代理之间的协作提供了一种标准化、安全且高效的解决方案。尽管目前其生态系统仍在发展和完善中,但它已经为原型开发和内部工作流提供了足够的支持,有望在未来推动多代理协作的广泛应用。

#Google #AI #Agent2Agent

https://www.builder.io/blog/a2a-protocol
分享 5 个 Lovart.ai 邀请码。

cajavEc

wfGJVGS

Kh7PFX9

YN7QAkg

T4TMDSm

#邀请码

https://www.lovart.ai
Benjamin Breen 深入探讨了人工智能对人文学科的深远影响。尽管人工智能技术的发展引发了诸多争议,但其对人文学科的重要性不容忽视,同时也使这一领域变得更加复杂和独特。

D. Graham Burnett 在《纽约客》强调人工智能对人文学科的变革性影响。Burnett 提到,一些高校历史系在外部评估中被建议应尽快应对人工智能带来的教学和研究变革,但这一建议并未得到热烈响应。学术界不能继续忽视这场思想领域的重大革命,必须正视人工智能对大学生活尤其是人文学科的意义。

Breen 进一步阐述了生成式人工智能对人文学科技能的提升作用。人工智能语言模型的翻译、分类和排序能力正在为人文学科的多个领域带来变革,如古文字学、数据挖掘和古老语言的翻译等。同时,人文学科的知识和技能也对人工智能研究本身变得至关重要。例如,OpenAI 在解决 GPT-4o 出现的奉承问题时,并非通过代码,而是通过调整英文文本提示来解决,这表明人工智能工程师需要深入思考语言与文化、技术的历史和哲学等人文问题。

非技术背景的人文学者如今能够编写自己的代码,这将为人文学科带来新的可能性。Breen 通过开发两款基于文本冒险游戏的教育工具,展示了人工智能在人文学科教学中的应用潜力。第一款游戏是 17 世纪药剂师模拟器,玩家需根据实际早期现代医学配方治疗患者;第二款游戏是模拟达尔文在加拉帕戈斯群岛收集标本的冒险,该游戏通过基于实际地形的移动系统和更稳健的日志记录功能,增强了教学效果。

然而,人工智能也对教育系统带来了挑战。人工智能聊天机器人削弱了学生的学习动力,使学生无需付出努力即可完成学业,这可能导致学生失去深度思考和专注学习的机会。文章引用了一位哥伦比亚大学学生的话,说明许多学生认为大学作业缺乏相关性,可以通过人工智能轻松完成,这种现象对教育的本质造成了冲击。

尽管如此,人工智能在教学中仍具有积极的一面。D. Graham Burnett 在《纽约客》文章中提到,学生在与人工智能互动并编辑结果的过程中,展现出了深刻的思考和创造力。这表明人工智能可以成为一种全新的教学工具,其影响仍有待进一步探索。

教育工作者需要积极学习如何创建和部署人工智能工具,以满足特定的教学需求。如果忽视这一挑战,教育可能会被一些低质量的人工智能学习工具所主导,从而削弱师生之间个性化的互动关系。Benjamin Breen 还提到,他们与同事获得的 NEH 授予的项目在 2025 年 1 月 被取消,但他们仍将继续开展相关工作。

人工智能对人文学科的影响是复杂的,既带来了机遇,也带来了挑战。教育工作者需要在这一变革中发挥积极作用,以确保人工智能能够为教育带来积极的变革,而不是仅仅成为一种工具。

#AI #思考

https://resobscura.substack.com/p/ai-makes-the-humanities-more-important
Quarkdown 是一个现代化 Markdown 扩展工具,旨在通过强大的功能将想法转化为演示文稿、文章或书籍。它基于 CommonMark 和 GFM 扩展而来,增加了函数支持和多种语法扩展,允许用户在 Markdown 中定义自己的函数和变量,甚至创建可供他人使用的库。Quarkdown 提供了强大的标准库,涵盖布局构建、输入输出、数学运算、条件语句和循环等功能,能够实现复杂且动态的内容生成。

Quarkdown 的核心优势在于其多功能性,能够无缝编译项目为打印就绪的书籍或交互式演示文稿。它支持多种输出格式,包括 HTML 和 PDF,适用于书籍、文章、幻灯片等多种文档类型。Quarkdown 还提供了实时预览功能,结合快速的编译速度,能够显著提高工作效率。

在功能实现方面,Quarkdown 通过 .doctype 函数允许用户在源文件中设置目标文档类型,例如幻灯片或分页文档。它还支持多种扩展功能,例如通过 reveal.js 实现幻灯片效果,通过 paged.js 实现分页功能。此外,Quarkdown 提供了丰富的文档控制能力,用户可以通过简单的 Markdown 语法实现复杂的文档布局和样式设置。

#Tools #Markdown

https://github.com/iamgio/quarkdown
Thomas Ptacek 对 AI 在编程领域应用的质疑声音进行了反驳,他认为 AI 辅助编程并非只是短暂的潮流,而是具有深远影响的技术变革,即使所有关于 LLM(大语言模型)的进步即刻停止,LLM 也已经是其职业生涯中第二重要的技术发展。

许多对 AI 持怀疑态度的聪明人其实并没有真正了解 AI 辅助编程的现状。真正的 LLM 辅助编程是通过“代理”来实现的,这些代理可以在代码库中自主操作,直接编写文件、运行工具、编译代码、执行测试并迭代结果。这些代理还可以将代码库中的任意代码片段拉入上下文窗口、运行标准 Unix 工具、与 Git 交互、运行现有的工具(如代码检查器、格式化工具和模型检查器),并可以通过 MCP 进行几乎任意的工具调用。他强调,真正“处理”代码的代理代码并非 AI,而是相对简单的系统代码,类似于 Makefile,与编程的基本事实紧密相连。

LLM 能够编写大部分单调乏味的代码,而大多数项目中的代码都是这类单调的代码。LLM 大幅减少了开发者需要通过 Google 搜索的内容,它们自己就能查找信息,并且不会感到疲倦,免疫于惰性。LLM 可以帮助开发者跨越那些因为缺乏动力而延迟开始的项目,直接将开发者带到代码几乎可以工作的“黄金时刻”,让开发者能够通过调整代码并立即看到更好的效果,这种即时的成就感正是 Thomas Ptacek 热爱编程的原因。

对于 LLM 生成的代码质量,他反驳了“代码像初级开发人员一样糟糕”的观点。他认为,使用代理是一种技能和工程实践,涉及到提示、索引和工具。LLM 只有在开发者允许的情况下才会产生糟糕的代码。他以自己使用 Cursor 的经验为例,指出即使是生成的代码需要编辑,但这并不影响其价值,因为开发者仍然需要阅读代码并将其调整为自己的风格。

LLM 在某些编程语言上的表现可能不如其他语言,但这并不意味着 LLM 无法用于编程。他以 Go 语言为例,指出 Go 语言的设计虽然并非为了成为最易于 LLM 理解的语言,但 LLM 在生成 Go 代码方面表现出色。他鼓励 Rust 社区改进工具链以更好地支持 LLM。

在讨论 AI 对于编程“工艺”的影响时,他指出,专业软件开发者的职责是用代码解决实际问题,而不是追求代码的艺术性。LLM 可以处理那些单调乏味的任务,让开发者能够专注于真正重要的工作。LLM 提高了代码的“底线”,即使它们生成的代码只是“中等水平”,这也意味着开发者可以少写一些中等水平的代码。

对于 AI 可能导致的失业问题,软件开发领域本身就是通过自动化来取代其他工作领域的。虽然 LLM 可能会取代一些软件开发工作,但这并不是软件开发者可以阻止的。他认为,开发者应该接受这种变化,而不是盲目抵制。

尽管他不是 AI 的狂热支持者,但他认为 AI 的重要性不容忽视。他呼吁人们停止对 AI 的无端质疑,认真对待 AI 带来的变革。随着时间的推移,人们对 AI 的态度会逐渐改变,而那些真正理解并接受 AI 的开发者将能够更有效地利用这一技术。

#AI #思考

https://fly.io/blog/youre-all-nuts/
Microsandbox 是一个用于运行不可信代码的虚拟化隔离平台,旨在为 AI 代理、开发者以及需要安全执行代码的用户,提供兼具速度与安全性的解决方案。传统运行不可信代码的方式存在诸多问题:本地运行可能导致系统被恶意脚本攻击;容器共享内核,难以抵御复杂攻击;传统虚拟机启动缓慢,严重影响效率;云解决方案则可能成本高昂且受制于云服务提供商。Microsandbox 通过以下优势解决了这些问题:

1. 绝对安全,提供真正的虚拟机隔离,拥有独立内核;

2. 瞬间启动,启动时间低于 200 毫秒,远快于传统虚拟机;

3. 自主控制,支持自托管并完全掌控基础设施;

4. 兼容 OCI,能够与标准容器镜像配合使用;

5. AI 能力,内置 MCP(模型上下文协议)服务器,便于与 AI 工具无缝集成。

Microsandbox 的安装和启动非常便捷,用户只需通过一行命令即可完成安装并快速启动,从而立即开始执行代码。此外,Microsandbox 的服务器原生支持 MCP,能够与 Claude 或其他兼容 MCP 的 AI 工具在几秒内完成连接,为 AI 集成提供了极大的便利。Microsandbox 可以用于构建多种应用场景,包括 AI 代码执行平台,使 AI 助手能够安全地运行其生成的代码,无论是简单的 Python 脚本还是复杂的 Web 应用,都能在实时环境中运行、测试和调试代码,而无需担心基础设施的安全性;安全数据分析服务,允许用户上传数据集并运行自定义分析脚本,支持各种数据科学栈,如 Python 的 pandas、用于统计的 R 或高性能计算的 Julia,同时保持完全隔离;交互式学习环境,为教育和培训部署即时编码环境,学生可以在浏览器中直接编写、编译和执行任何编程语言的代码,而平台能够保持完全的安全隔离;持续集成与测试,能够快速原型化和测试微服务,启动完整的应用程序栈,测试 API 集成并验证部署配置,而不会影响主基础设施,非常适合 CI/CD 管道、集成测试和概念验证开发。

#Tools #AI #sandbox

https://docs.microsandbox.dev/
“白领血洗(裁员)”都是 AI 炒作的一部分

Allison Morrow 对 Anthropic 公司首席执行官 Dario Amodei 的言论进行了分析。Amodei 近期在接受 Axios 和 CNN 采访时表示,AI 技术可能会在未来几年内消灭一半的入门级办公室工作岗位,他还提到 AI 将在几乎所有智力任务上超越人类,这将对社会产生巨大影响。然而,Amodei 并未提供任何研究或证据来支持他关于 50% 的工作岗位将被消灭的估计。

Amodei 的言论是硅谷常见的夸张说法的一部分,即 AI 将会解决一切问题,但在此之前会先破坏一切。这种说法缺乏具体的证据支持,更像是为了吸引关注而进行的炒作。例如,Amodei 提到 AI 将会带来一个癌症被治愈、经济年增长率达到 10% 的乌托邦,但同时却有 20% 的人失业。这种说法忽视了失业人群将无法消费从而影响经济增长的现实问题。

一些 AI 乐观主义者也对 Amodei 的言论表示不满。例如,科技企业家 Mark Cuban 指出,历史上也曾出现过类似的工作岗位被技术取代的情况,但新的公司和工作岗位也会随之出现,从而增加总就业机会。

此外,Anthropic 公司将自己定位为一个“AI 安全和研究”公司,声称看到了 AI 的潜在危害。然而,Amodei 的言论更像是在为公司产品做广告,而不是真正提供解决方案。AI 公司需要展示他们的技术如何能够真正地改变经济,而不是仅仅强调风险。

尽管大型语言模型如 ChatGPT 和 Claude 在某些特定任务上表现出色,但它们也存在明显的局限性,例如会产生错误信息、容易被操纵等。因此,AI 技术是否能够真正带来经济革命,目前还远未可知。

#AI #分析 #思考

https://www.cnn.com/2025/05/30/business/anthropic-amodei-ai-jobs-nightcap
Cline 近期工程最佳实践分享会上总结的 12 个专业 AI 编程技巧:

1. 编码前花 10 分钟规划,胜过 2 小时盲目编写。像培训新开发者那样向 AI 简要说明:架构、约束条件、目标及现有模式。这能节省后期大量重构时间。

2. 复杂任务选用高级模型。Gemini 2.5 Pro(100 万 tokens)和 Claude 3.7/4 Sonnet 的表现远超经济型模型。对于复杂工作,其成本差异往往物有所值。

3. 时刻关注上下文窗口。容量超过 50%后性能会下降。在长时间会话中,使用实现文档、交接摘要或/newtask 功能来保持高效。

4. 为你的标准创建规则文件。一次性定义好编码模式、项目结构和工作流程。每次 AI 会话都会自动加载这些上下文。

5. 预先完整表达你的意图。AI 能读取文件但不了解你的目标、限制条件和愿景。解释你想要实现什么以及为什么这样做,以建立共同理解。

6. 把 AI 当作一个聪明但健忘的开发者。它能写出出色的代码,但需要你不断指导它理解你想要实现的目标。

7. 在规划阶段保持协作。不要直接跳转到实施环节。先讨论架构、探索替代方案、验证方法,再开始编写代码。

8. 为长期项目建立记忆库。创建由 AI 维护的 Markdown 文件,记录项目背景、进度和学习心得。这对复杂构建和任务交接至关重要。

9. 复杂工作考虑使用高级模型。使用顶级模型的开发者通常比单纯追求成本优化的团队交付更快。生产力提升足以证明这笔开支的合理性。

10. 掌握上下文管理策略。了解何时压缩上下文(/smol)、何时新建任务(/newtask)、何时创建交接文档。这区分了高效开发者与举步维艰的开发者。

11. 通过共享规则文件构建团队知识库。对 AI 指令进行版本控制。新成员能立即了解团队的编码规范。

12. 拥抱范式转变。这不是要取代开发者——而是用 AI 能力放大人类洞察力。优秀团队早已领悟这一点。

#AI #编程 #技巧 #Vibe_Coding

https://x.com/cline/status/1928901840969805828
日本研究人员开发出可替代塑料的 "透明纸";新材料可生物降解,生产过程中碳排放量低

日本海洋地球科学技术机构(JAMSTEC)及其他机构的研究团队开发出一种以植物生物质纤维素为原料制成的厚透明纸张,这种纸张可被微生物分解为水和二氧化碳,有望作为塑料的替代品用于制造容器,从而减少海洋污染。研究人员利用棉籽表面纤维制成的纤维素粉末,将其溶解在溴化锂水溶液中,通过高温处理使其成为凝胶状,随后进行成型和干燥。实验表明,这种透明纸张的强度与聚碳酸酯塑料相当,且由于其纳米级纤维的紧密排列,光线能够直接穿透纸张而不发生散射,即使厚度达到 0.7 毫米,仍具有良好的柔韧性和透明度,能够清晰看到 100 米外的景物。此外,该团队还对透明纸张的海洋生物降解性进行了测试,结果显示即使在 757 米深的海底,纸张也能在四个月内基本被微生物分解。与传统纸张包装相比,透明纸张解决了消费者无法看到包装内物品的问题,但要实现大规模生产,仍需具备相应技术的工厂。JAMSTEC 副首席研究员伊曾部纪行表示,若建立示范实验工厂,预计生产成本约为普通纸张的三倍,但二氧化碳排放量仅为塑料生产过程的一半。大阪大学木材材料专家野木正也教授指出,与其他透明纸张相比,这种纸张的优势在于其在深海环境中已被证实具有生物可降解性。

#资讯 #科学

https://japannews.yomiuri.co.jp/science-nature/technology/20250605-259501/
我不记得我的生活,但没关系

Marco Giancotti 探讨了自己患有 aphantasia 和可能的 SDAM(Severely Deficient Autobiographical Memory)对记忆和生活的影响。aphantasia 是一种无法在脑海中形成图像、声音或其他感觉的心理现象,而 SDAM 则是一种难以回忆过去事件的自传体记忆障碍。Giancotti 表示,尽管他无法像常人一样回忆起具体的过去场景,但这并未给他带来生活上的重大不便,他依然在许多方面取得了成功。

在回忆具体事件时,Giancotti 面临巨大困难。例如,在申请工作时,他无法回答关于大学时期解决难题的经历,因为他无法从记忆中提取出具体的事件。他的记忆更像是一个没有标签的文件柜,无法通过关键词快速检索。他只能通过非常具体的提示和外部帮助,有时才能回忆起一些片段。在尝试回忆已故祖父时,他也只能记起一些模糊的、没有具体情节的片段,而无法重现具体的场景或对话。

Giancotti 认为,这种记忆障碍主要带来情感上的困扰,而非实际生活中的不便。研究表明,aphantasia 患者作为目击者的准确性并不比常人差,尽管他们回忆的信息可能不那么完整,但错误率并不更高。他的语义记忆(对事实和概念的记忆)和空间记忆(对地点和布局的记忆)是完好的,这帮助他在一定程度上弥补了自传体记忆的不足。例如,他能够清晰地回忆起曾经居住过的房屋布局或城市的路线,这些空间记忆甚至可以作为他回忆过去事件的“索引”。

尽管存在记忆障碍,Giancotti 认为这也有积极的一面。由于缺乏对过去的怀旧和对未来的幻想,他能够更专注于当下,并努力在当下理解新信息,从而提升自己的理性思维能力。他强调,尽管他的记忆方式与常人不同,但他依然能够从经历中学习,形成更复杂的心理模型,这些模型帮助他预测未来并应对日常生活。他还指出,目前没有证据表明这种记忆“缺陷”在实践中会带来显著的劣势,反而可能通过替代性的认知策略来弥补。

#生活 #思考

https://aethermug.com/posts/i-do-not-remember-my-life-and-it-s-fine
知识型工作正在消亡——接下来会发生什么?

随着人工智能的快速发展,传统的知识工作正逐渐被取代,而未来的工作将更加注重智慧工作。Hudson 是 Art of Accomplishment 的创始人,他与 OpenAI、Alphabet 和苹果等公司的高管合作,帮助他们开发人工智能无法复制的技能。

Hudson 指出,在过去,知识是稀缺资源,积累技能和专业知识能够让人脱颖而出,但如今,随着人工智能模型能够在短时间内吸收整个领域的知识,知识和技能正在被商品化,未来即使是顶尖人才也可能被替代。他以微软为例,强调智慧技能如情感清晰、洞察力和连接能力才是未来的关键。在微软 CEO 萨提亚·纳德拉的领导下,公司通过培养这些能力,市值从 3000 亿美元增长到 3 万亿美元。

智慧是通过经验、反思和时间积累而形成的,它无法被复制或粘贴,是一种身体化的体验。人工智能无法代替人类去体验生活中的情感信号、感知隐藏的恐惧或理解客户未言明的意图。因此,未来的经济将更加重视智慧工作者,他们的核心技能包括情感清晰、洞察力和连接能力。

情感清晰是指能够认真对待情绪,但不被情绪左右。许多人通过压抑或管理情绪来避免面对真实的情感,但这些方法往往会适得其反。情感清晰能够帮助人们在决策时更加清晰,避免因情绪回避而导致的拖延和错误选择。

洞察力则超越了数据的堆砌,它要求人们能够清晰地看待事物的本质。Hudson 指出,人们与自己的关系会影响他们如何看待世界。如果一个人无法清晰地看待自己,他的洞察力就会受到损害。他建议通过学会善待自己,改变与自己的关系,从而提高洞察力。

连接能力是智慧工作的另一个关键技能。Hudson 提出了一个名为 VIEW 的框架,即脆弱性、公正性、同理心和好奇心。通过这个框架,人们可以建立深度的连接,而不是通过成就来获得连接。研究表明,团队成员之间感到安全并能够自由表达意见的团队,学习速度更快,达成目标的可能性更高。

随着人工智能的发展,知识和技能将不再是衡量一个人能力的主要标准,而是情感清晰、洞察力和连接能力等智慧技能。他呼吁人们重视这些技能的培养,因为它们将成为未来工作和生活中不可或缺的部分。

#AI #思考

https://every.to/thesis/knowledge-work-is-dying-here-s-what-comes-next/
Google AI Edge Gallery 是一个实验性应用程序,由 Google AI Edge 团队开发,旨在让用户探索、体验和评估移动端生成式人工智能(GenAI)的未来。该应用程序支持在 Android(现已推出)和 iOS(即将推出)设备上运行,完全离线操作,无需联网即可使用。用户可以尝试不同的模型,进行图像问答、文本生成、多轮对话等功能。

其核心功能包括:本地运行,完全离线,所有处理直接在设备上完成;选择模型,用户可以轻松切换 Hugging Face 上的不同模型并比较性能;图像问答,上传图片后可提问并获取描述、解决问题或识别物体;提示实验室,支持总结、改写、生成代码等单轮语言模型用例;AI 聊天,支持多轮对话;性能洞察,提供实时基准测试(如首次生成时间、解码速度、延迟);自带模型测试,用户可以测试本地 LiteRT .task 模型;开发者资源,提供模型卡片和源代码的快速链接。

#AI #APP

https://github.com/google-ai-edge/gallery
程序员 Prompt 工程实战指南

开发者越来越依赖 AI 编程助手来加速日常工作流程,这些工具能够自动补全函数、建议修复错误,甚至生成整个模块或最小可行性产品(MVP)。然而,AI 输出的质量很大程度上取决于提供的提示(prompt)质量。提示工程已成为一项必备技能,良好的提示能够产生深思熟虑、准确甚至富有创意的代码解决方案,而糟糕的提示则可能得到无关或泛泛的答案。

AI 编程助手并非万能,它们对项目或意图的了解仅限于开发者提供的信息。因此,提供丰富上下文至关重要,包括编程语言、框架、库以及具体的功能或代码片段。如果存在错误,需提供确切的错误信息并描述代码的预期功能。具体性和上下文是区分模糊建议和精准、可操作解决方案的关键。此外,明确目标或问题也非常重要,避免使用模糊的查询,而是要精准地表达需要的见解。

对于复杂任务,应将其分解为较小的部分并逐步迭代。例如,在实现新功能时,可以先生成一个 React 组件的基本结构,然后逐步添加状态管理和 API 调用。提供输入/输出示例或预期行为的示例也能够帮助 AI 理解意图并减少歧义。此外,利用角色或人物设定也是一种强大的技巧,例如让 AI“扮演”高级 React 开发者或 JavaScript 性能专家,从而影响回答的风格和深度。

提示工程是一个互动过程,开发者需要根据 AI 的初步回答提出后续问题或进行修正。将 AI 视为可以指导的合作伙伴,而不是追求一次性完美的解决方案。此外,保持代码的清晰性和一致性也非常重要,良好的函数和变量命名、一致的格式化以及文档注释不仅便于人类理解,也能为 AI 提供更强的线索。

在调试代码时,清晰描述问题和症状是关键,包括代码的预期行为、实际错误表现以及相关代码片段。对于复杂的逻辑错误,可以采用逐步或逐行分析的方法,让 AI 模拟人类调试过程。如果可能,提供最小可复现示例,这有助于 AI 集中精力并帮助开发者澄清问题。此外,提出针对性的问题和后续问题也能够引导 AI 提供更有用的回答。

在重构和优化代码方面,明确表达重构目标至关重要,例如提高可读性、降低复杂性或优化性能。同时,提供必要的代码上下文,包括语言、框架以及相关代码片段。鼓励 AI 提供代码更改的解释,这不仅有助于学习,还能验证其正确性。此外,通过角色扮演设定高标准,例如让 AI“扮演”资深 TypeScript 专家,能够获得更具洞察力的改进。

在实现新功能时,从高层次的指令开始,然后逐步细化是一种有效策略。例如,先概述在 React 应用中添加搜索功能的计划,然后再逐步实现每个步骤。提供相关的上下文或参考代码也非常重要,这有助于 AI 生成与项目风格一致的代码。此外,使用注释和 TODO 作为内联提示,以及提供预期输入/输出或用法示例,都能够帮助 AI 更好地理解需求并生成符合要求的代码。

提示工程是一门艺术和科学的结合,对于开发者来说,学会如何系统地构建有效的提示能够显著提升 AI 编程助手的效用。通过提供清晰的上下文、明确的目标和逐步的指导,开发者可以将 AI 转化为可靠的开发伙伴,从而提高开发效率并提升自身的技能水平。

#AI #Prompt #指南

https://addyo.substack.com/p/the-prompt-engineering-playbook-for
OpenAI 将 o3 的价格降低了 80%。

#OpenAI #AI

https://x.com/sama/status/1932434606558462459
聪明人不追逐目标,而是设定界限

Joan Westenberg 探讨了目标与限制之间的关系。通过自身经历反思了单纯追求目标的局限性,指出目标往往是由外部世界设定的,而人们在追求过程中可能会逐渐失去内心的指引。目标本身并非错误,但它更多是基于外在的衡量标准,而非内在的深度追求。

限制才是塑造工作和生活的关键。限制可以被视为一种框架,它能够为行动提供清晰的方向,而不是像目标那样容易让人迷失。许多真正具有创新性的工作并非源于明确的目标设定,而是通过在特定的限制条件下探索可能性。例如,军事战略家 John Boyd 在喷气式战斗机格斗的限制下开发了 OODA 循环,这一模型后来影响了军事、商业和创业文化。物理学家 Richard Feynman 也不是通过设定“获得诺贝尔奖”这样的目标取得成就,而是通过在自我设定的限制下探索问题的优雅解法。

目标往往给人一种行动的错觉,让人沉迷于规划和优化,却忽略了真正重要的事情。而限制则能够引导人们关注真正重要的方面。例如,二战期间,工程师们最初建议加固飞机上受损最严重的部位,但统计学家 Abraham Wald 指出,真正脆弱的部分是那些没有受损的部位,因为那些被击中后无法返回的飞机才是关键。目标往往关注可见的“漏洞”,而限制则揭示了真正重要的“不可见约束”。

限制还可以作为指南针,帮助人们在复杂环境中找到方向。例如,NASA 在阿波罗计划中面临诸多限制,如预算、时间、重量、热量、真空等,这些限制反而激发了创造性解决方案,最终实现了人类登月这一壮举。限制促使人们进行第二层次的思考,而不是简单地追求终点。

此外,限制比目标更具适应性。目标是基于对未来无知的预测,而限制则不依赖于对未来的假设,它们能够根据反馈进行调整。例如,一个初创团队设定“在实现产品市场契合之前不招聘新员工”的限制,这种限制能够指导决策,而不会被固定的预测所束缚。

“反目标”(即以拒绝的形式表达的限制)同样具有强大的塑造力量。例如,创业者拒绝与耗尽精力的客户合作,这种拒绝实际上是在为自己的时间、精力和身份划定边界。斯多葛哲学家马库斯·奥勒留斯在其《沉思录》中也强调了限制的重要性,他提醒自己不要说谎、不要抱怨、不要被冲动所左右,这种以限制为导向的路径避免了对结果的诱惑。

在职业生涯中,设定目标和设定限制会产生截然不同的结果。设定目标的人可能会花费大量时间去推销、建立人脉、迎合市场,而设定限制的人则可能因为专注于自己真正感兴趣的工作而意外获得成功。限制通过去除那些会腐蚀、稀释或分散注意力的路径,塑造了人们在世界中的长期行动轨迹。

尽管如此,目标在某些情况下仍然有其价值,例如在有限、可控、明确的领域,如训练马拉松、准备考试或按截止日期发布产品。但在面对模糊、未定义的问题时,限制则更为有效。例如,在创业、职业转换或建立媒体业务等复杂情境中,设定限制(如“不从不信任的人那里拿钱”“不建造自己不会使用的东西”“不加入需要伪装的团队”)往往比设定目标更有意义。

Westenberg 最后引用了 John Boyd 的观点:你是想成为一个有名的人,还是想做一些有意义的事?目标往往源于前者,而限制则源于后者。前者关乎形象,后者关乎身份,而后者拥有更大的成长空间。

#思考

https://www.joanwestenberg.com/smart-people-dont-chase-goals-they-create-limits/
2025/06/11 09:52:29
Back to Top
HTML Embed Code: