今日热榜 - 壹搜网为您找到"

infoq

"相关结果

18 岁创业者用 OpenClaw 管 16 个 AI Agent,一个人的 Agent 公司怎么运转

InfoQ
如果 AI 给你的结果不满意,问题在你,不在 AI。无论用什么工具,给足上下文,才能得到你真正想要的东西。

智能体时代的强化学习:AReaL 框架与 Agent 最佳实践

InfoQ
本文重点介绍了针对 Agent 模型的强化学习训练系统 AReaL 及其在 Agent 场景下的最佳实践,并通过真实数据和可复现的代码,展示 AReaL 如何帮助开发者和企业高效构建智能体系统,并推动 AI Agent 从实验室走向产业应用。

模型不再是关键?LangChain 创始人:真正决定Agent 上限的是运行框架

InfoQ
伴随模型能力持续跃迁,简单调用 LLM API、套一层提示词就能做产品的时代,已经走到尽头。应用正在从“单次生成”,迈向“持续执行”。

又一中国玩家入场“龙虾”生态:阶跃星辰推出 StepClaw,开放 5 万个免费部署名额

InfoQ
该功能还将在阶跃AI网页端上线,支持部署和使用。

狂裁1600人,换掉CTO、晋升“下一代AI人才”!SaaS巨头的转型焦虑

InfoQ
软件巨头 Atlassian 宣布将裁撤约 10% 的员工,涉及约 1600 个岗位,并更换首席技术官,以此进行重组,进一步投资AI。

从“暴力烧Token”到“系统工程”:OpenAI与华为的两条 AI 编程路径

InfoQ
我们认为,“以工程确定性为体,以算力暴力为用”的融合路径是 AI 编程落地企业的最优解。

如何用 Streamlit 和 Snowflake Cortex 搭建语音助手应用 |技术实践

InfoQ
在本快速入门指南中,您将利用 Snowflake Cortex 的 AI_TRANSCRIBE 函数,构建一个支持语音交互的 AI 助手。用户可通过录制音频消息,经由系统自动转录并由大语言模型处理,实现智能化、自然的对话体验。

JoySafeter 重磅开源:开启 AI 驱动安全(AISecOps)新范式

InfoQ
JoySafeter 是一个安全能力的“操作系统”,它不是单一的工具,而是一个能够将无序的安全工具、分散的专家经验,统一编排成协同作战的AI军团的可视化平台。简单来说,它让安全专家能够用“搭积木”的方式,使用自然语言或可视化界面,构建、管理和进化能自主完成复杂安全任务的AI智能体(Agent)。

Meta 删邮件事故背后,OpenClaw 为什么会“失忆”?代码库维护者拆解记忆架构

InfoQ
从Meta删邮件事故看OpenClaw记忆架构:Agent为什么会忘记关键指令

26 年 IDE 老厂押注 Agent 编排:JetBrains 公开预览 AI IDE Air

InfoQ
JetBrains 公开预览了其最新的 AI 编程工具 Air,这是一款基于其 26 年开发工具经验打造的新一代开发环境。

新研究重新评估AGENTS.md文件在AI编码中的价值

InfoQ
尽管业界普遍推荐,但苏黎世联邦理工学院的一篇新论文得出结论,AGENTS.md文件可能经常阻碍AI编码智能体。研究人员建议完全省略由LLM生成的上下文文件,并限制人类编写的指令只包含不可推断的细节,例如非常具体的工具或自定义构建命令。

国内首个国产AI推理千卡集群落地梁文锋家乡,采用云天励飞全自研AI推理芯片

InfoQ
如果说电力支撑了工业时代,互联网支撑了信息时代,那么智算正在成为支撑AI时代的重要底座。

AI x 大前端性能稳定性:快手亿级 DAU 下的智能诊断实践

InfoQ
近年来,大前端技术领域呈现出迭代速度加快、功能复杂度和业务耦合度增加的特点,加之快手亿级 DAU 的用户规模和超长使用时长,面临着多种技术栈并存、高资源占用的挑战,性能稳定性风险持续增大。传统的性能稳定性排障工具使用门槛高,依赖领域专家多年积累的深度知识和隐性经验判断。如何借助快手「柯南 AI」 赋能,实现性能稳定性问题排障经验平民化,显著提升诊断效率?

OpenSandbox:重新思考 Agent 时代的 Runtime|QCon北京

InfoQ
深入解析 OpenSandbox 在高吞吐执行、细粒度网络安全控制与企业级可扩展性上的关键设计与落地经验

Cloudflare 推出面向 AI 代理的 Markdown 页面与 Content Signals,用于引导 AI 爬虫

InfoQ
Cloudflare 推出了 “Markdown for Agents” 功能,使 AI 爬虫能够通过发送 Accept: text/markdown 请求头来获取网页的 Markdown 版本。该公司还同时提出了一种名为 “Content Signals” 的机制,允许内容发布者声明其内容是否可以用于 AI 训练、搜索索引或推理使用。尽管这一举措是为让大语言模型(LLM)更容易理解网页内容,但它