
该项目技术负责人 Jon Seager 表示,进入 2026 年后,Canonical 已开始鼓励内部开发人员更积极地使用 AI 工具,但重点并不在于追求表面化的数据指标,例如 token 使用量或“有多少代码由 AI 编写”,而是希望工程师真正深入理解 AI 在哪些场景下有效、哪些场景下并不理想,并通过实际产出进行衡量。 按照他的说法,公司不会强制所有团队采用同一套 AI 技术栈,而是鼓励不同团队尝试不同方案,在未来数月内积累更多组织层面的经验。
Seager 同时强调,Canonical 不会把 AI 生硬地塞进 Ubuntu 的每一个角落,而是会把“责任感”和“透明度”作为推进这项工作的核心原则。 在模型选择上,Canonical 将优先考虑开放权重模型、开源工具链,以及尽可能依赖本地离线推理的实现方式;同时,公司评估模型时也不会只看权重是否开放,还会重点审视模型许可条款是否与 Ubuntu 的价值观相兼容。
根据 Canonical 的规划,未来 Ubuntu 中的 AI 功能大致分为两类:一类是“隐式 AI 功能”,另一类是“显式 AI 功能”。 所谓隐式 AI,是指在不改变用户使用心智模型的前提下,把 AI 融入现有操作系统能力之中,以提升原有功能表现,例如语音转文字、文字转语音、OCR 和增强型屏幕朗读等无障碍能力。 Seager 认为,这类功能本质上更像是关键的可访问性改进,而不是单纯为了贴上“AI”标签;在很多场景下,它们可以通过开源框架、开放权重模型以及本地推理方式高效实现,同时兼顾准确性与效率。
另一类显式 AI 功能,则是更明显以 AI 为核心的新能力,可能包括具备一定代理能力的工作流,例如撰写文档、生成应用、自动化故障排查、甚至提供个性化的每日新闻摘要等。 不过 Canonical 也承认,这类功能伴随着更高的安全责任,因此必须提前建立足够完善的安全机制、隔离与权限控制,以防出现超出预期的副作用。 用 Seager 的话来说,隐式 AI 将用于增强 Ubuntu 已有功能,而显式 AI 则会以新的功能形态逐步引入。
在具体技术实现方面,Canonical 计划继续推进其此前已介绍过的“inference snaps(推理 Snap 包)”。 按照官方说法,这类 Snap 可以让用户更简单地在本地调用针对特定硬件优化过的模型推理能力,减少在 Ollama、Hugging Face 以及大量量化模型之间来回折腾的复杂度。 例如,用户安装某个推理 Snap 后,如果相关芯片厂商已经提供适配优化,系统就能自动获得更适合当前硬件平台的模型版本。 此外,这些推理 Snap 与其他 Snap 一样,会受到相同的沙箱隔离规则约束,从而降低模型对本机数据与系统资源进行无差别访问的风险。
Seager 还提到,过去若想充分发挥大模型能力,通常需要依赖更大参数规模的模型,但近来的模型进展已经显示出,小型或中型模型在工具调用等高级能力方面正持续增强。 文中举例称,像 Gemma 4 和 Qwen-3.6-35B-A3B 一类的新模型,已经展现出调用工具的能力,理论上可用于搜索网页、与外部 API 和文件系统交互、排查实时系统问题,并对超出原始训练数据范围的话题进行推理。 因此,Canonical 接下来的重点之一,就是扩大团队投入,尽快跟进最新模型发布,并为尽可能多的芯片平台提供优化版本。
除基础推理能力外,Canonical 也在设想一种更具“上下文感知”能力的操作系统体验。 Seager 表示,随着越来越多用户开始习惯与“代理”协作,Ubuntu 希望把 Linux 这些年积累下来的强大能力,以更易理解、更易使用的方式呈现给更广泛的人群。 官方正在规划如何把代理式工作流整合进 Ubuntu,但前提仍是要符合 Ubuntu 用户群体的使用习惯,并尊重隐私与安全价值。 在他看来,Snap 的受限打包机制,以及 Ubuntu 近年来对核心系统功能进行整合所打下的基础,将帮助 Canonical 以更安全的方式实现这一目标。
Linux 桌面生态长期以来以碎片化著称,这种碎片化某种程度上促成了生态繁荣,却也常常让集成体验变得复杂,令部分用户感到挫败。 Canonical 认为,如果能够谨慎地将大模型应用于系统层面,它们或许可以帮助用户更直观地理解现代 Linux 工作站的能力,从而让 Linux 桌面对更广泛人群更具吸引力。
这种设想并不只局限于桌面。Seager 提到,如果用户是一名管理大量 Ubuntu 机器的站点可靠性工程师(SRE),大模型也可能在多种场景下提供帮助,例如在事故处理中解读日志、加快根因分析,或在严格护栏之下执行一系列计划中的维护任务。 Canonical 的目标,是构建一种能够适配不同 Ubuntu 设备形态的能力框架,让代理在不同接口下都能“像 Ubuntu 原生功能一样自然地工作”。 他强调,把部分站点可靠性工程任务交给代理,并不一定意味着引入全新的风险类别,因为成熟的生产环境本来就依赖严格的访问控制、审计追踪,以及观察与执行之间的清晰隔离;Ubuntu 希望做的,是为代理提供能在现有边界内运行的基础能力,例如只读分析、精细化权限、以及对决策与结果的完整审计。
从使用场景来看,官方设想未来用户或许可以直接要求自己的 Linux 设备排查 Wi‑Fi 连接问题,或者自动搭建一个已经预先配置、安全加固并具备 TLS 访问能力的开源软件平台。 在更进一步的场景下,这类能力甚至还可以成为其他设备控制 Linux 主机的入口,交互方式可以是移动应用、短信、语音指令等多种媒介。
当然,Canonical 也承认,本地推理能力与硬件条件密切相关。 尽管公司正努力让普通消费级硬件也能更容易运行开放权重模型,但参数规模较小的模型在许多任务上目前仍无法与更大的模型正面竞争。 不过 Seager 认为,这种差距很大程度上只是阶段性问题;随着全球芯片厂商持续开发面向消费市场、推理能力不断增强的新型硬件,今天看似只有前沿 AI 基础设施才能实现的能力,在未来数月乃至数年内会逐渐变得更加普及。
他还特别指出,讨论 AI 时不能只看性能,也必须考虑效率。 虽然用户很容易把云端大模型的 token 生成速度与本地设备表现直接对比,但本地原生加速器在处理这类工作负载时,功耗也会明显下降,这同样意味着使用门槛有望进一步降低。 Canonical 预计,这一切不会一夜之间完成,但 Ubuntu 希望在条件成熟时已经准备就绪,而与芯片厂商的合作及相关适配工作,将在其中扮演越来越重要的角色。
综合来看,Canonical 给出的信号很明确:Ubuntu 并不打算把自己变成一款“AI 产品”,而是希望通过一种更审慎、更可控、也更符合开源价值观的方式,在未来版本中逐步引入 AI 能力。 官方称,整个 2026 年,团队都将围绕“让 Ubuntu 用户以审慎、安全、符合开源理念的方式接触前沿 AI”这一目标推进工作,重点包括工程师教育、本地高效推理、无障碍能力增强,以及更具上下文感知的操作系统体验。