
Mozilla Firefox 142.0版本终于正式上线了,尽管这次更新并没有带来令人瞩目的新功能,但在扩展性方面的进步却可能引发广泛的讨论。这一版本的发布为用户和开发者提供了不少新的可能性,尤其是在人工智能领域。
Firefox 142 是 8 月的定期重大更新,重点是稳定性优化和功能改进。显着的改进包括:增强对 Blob 图像的拖放支持、改进书签属性对话框的滚动平滑度以及旨在增强整体用户体验的多项性能调整。
对于Web开发者而言,Firefox 142引入了优先任务调度API(PrioritizedTaskSchedulingAPI),这使得开发者能够更好地控制任务的优先级。同时,新的URLPatternAPI也为开发者提供了标准化的模式语法来匹配和解析URL。这些技术更新为开发者构建高效的Web应用提供了更多工具,增强了Firefox在开发者中的吸引力。
然而,真正引起关注的是Firefox对集成本地大型语言模型(LLM)的支持。Firefox 142 正式启用了 **wllama API 扩展支持**,允许开发人员将基于 WebAssembly 的本地 LLM 功能直接嵌入到浏览器扩展中。wllama 项目为 Llama.cpp 提供浏览器端绑定,无需依赖云即可实现私有 AI 推理,为“本地 AI 浏览器扩展”铺平了道路。
对于那些对使用wllamaAPI感到困惑的用户,Mozilla也提供了相应的支持信息,可以通过Firefox的错误跟踪器中的“为扩展启用wllama”部分获取更多帮助。这种对开发者友好的举措,展现了Mozilla对社区反馈的重视与响应。
随着 Firefox 不断探索本地化智能集成,142 版本可能会成为浏览器向“AI 增强工具”演进的另一个重要里程碑。


发表回复