AI-NEWS · 2026年 3月 13日

Google Maps 真的变“聪明”了吗?

Google Maps 上新了:跟它聊聊天,或者看着 3D 画面开车

周四 Google 宣布地图应用大更新,这次直接嵌入了自家新的 Gemini AI 模型。除了能跟你像聊天一样问问题("Ask Maps"),导航界面也彻底换了个活法("Immersive Navigation")。简单说,就是试图把那种“看屏幕指路”的老感觉,变成更像你在现实里开车的感觉。

到底能干嘛?

1. 别只搜关键词了,直接跟它说话

以前你想查“带插座、不用排队的咖啡店”,得分别搜“咖啡店”、“充电”、“排队情况”,步骤繁琐又容易漏。现在试试直接问:"有哪些带便捷充电设施且无需排长队的咖啡店?"

它居然能听懂。这功能叫 Ask Maps,目前在 AndroidiOS 上用(美国和印度地区先上,电脑端稍后)。

  • 它能懂你的“潜台词”:比如你收藏了素食餐厅,它推荐时就会优先给你推素食的,不用你每次都说“只要素的”。
  • 能帮你定路线:不光给路线,还会把其他人的实用建议揉进来。比如问“大峡谷怎么去”,它可能直接告诉你:“这里门票免费,但最近要预约”。
  • 覆盖范围:先在美国和印度跑通。

2. 导航界面:从“平面图”变成“看着世界开”

这点改动最显眼。以前的导航就是平面上的一条蓝线,告诉你“前方 500 米左转”。这次升级后,导航画面有了 3D 效果,有点像 Apple Maps 那种,能看清路口的建筑、立交桥甚至地形。

  • 看得更细:车道线、红绿灯、停车标志都标得清清楚楚。
  • 引导更自然:语音不再机械地报“前方 500 米”,而是说“经过这个出口后左转”。画面里甚至有个“透明建筑”的效果,让你提前看清路口有没有车,不用硬闯。
  • 能帮你选路:它会把不同路线的优缺点摆出来,比如“这条远但能避开拥堵”。数据来自 Google Maps 和 Waze 社区,挺实时的。

3. 到了门口怎么停?

以前到了目的地,还得在街景里瞎转悠找门在哪。现在,快到的时候,地图会自动高亮 建筑物入口最近停车场,甚至告诉你车该停哪一侧。算是解决了最后一段“找不到北”的尴尬。

官方说法:Google Maps 副总裁 Miriam Daniel 说:“我们的目标是在旅途中消除猜测。”这话听着挺大,但其实就是想让你少在路口犹豫。

这背后到底意味着什么?

1. 技术逻辑变了,不只是加点功能

这次升级不是简单的“旧地图 + 新 AI",底层逻辑动了。它深度集成了 Google 自研的 Gemini 模型。

  • 以前:你得像做数学题一样,拆解需求——先查地点,再查路线,再查评价。
  • 现在:你把模糊的想法扔给它,比如“我想找个安静、适合带娃吃饭的地方”,Gemini 直接给你一套解决方案。这不仅是功能多了,是整条交互逻辑被重写了。

2. 看起来像“具身智能”

新增的 3D 视图透明建筑 这些,其实是在往“具身智能”(Embodied AI)的方向走。

  • 以前的地图:上帝视角,冷冰冰的数据,你只能看个大概。
  • 现在的导航:试图模拟人在现实里的视觉感知。比如模拟你坐在车里看路口,看到建筑物在哪,看到障碍物在哪。
  • 结合社区数据:加上 Waze 这种用户上报的实时路况,这套系统正在变成一个能实时感知、动态决策的“数字孪生”。理论上,这能大大减少你开车时盯着屏幕的时间。

3. 跟 Apple 的角力,还有全球野心

  • 地盘之争:这次首发选了 美国印度。这两个地方路况差异巨大,路况复杂。Google 的算盘很明显:用这两地最复杂的路况来训练 Gemini,看看这 AI 能不能“举一反三”,以后推广到全球其他地方。
  • 盯着 Apple:长期以来,Apple Maps 因为自家的高精度 3D 引擎(LookAround),在视觉效果上一直压 Google 一头。Google 这次直接对标,还信誓旦旦说能“彻底变革”,显然是想在多模态能力(看懂图 + 说人话)上找回场子,试图用 AI 抹平数据积累上的老差距,毕竟地图可是手机里最核心的入口。

4. 从“指路工具”变“生活管家”?

  • 以前:指哪打哪,用完就扔。
  • 现在:它开始利用你的历史行为(比如你常去素食店,你常搜免费门票)来给你推东西。
  • 我的感觉:这确实在往“生活服务入口”靠。它试图通过你的搜索习惯,变成一个懂你口味的本地生活辅助大脑。

但说实话,真的有那么神吗?

看到这些新功能,第一反应是挺酷的,尤其是那个 3D 导航,画面确实比纯平面好看得多。但冷静想想,离“彻底改变出行”还有距离。

  • 关于那个“对话”:虽然能问复杂问题,但别指望它能像人类朋友一样聊天。它还是基于概率预测的,一旦你的问法稍微绕一点,或者场景太冷门,它可能就会胡言乱语。而且,它怎么知道你说的“便捷充电”对你来说到底是 10 米还是 500 米?这种模糊性,AI 目前很难精准拿捏。
  • 关于 3D 导航:看着确实爽,但在实际驾驶中,看着屏幕上的 3D 模型找路口,有时候还不如看着真实世界来得直观。毕竟,屏幕是死的,路是活的,光线变化、天气影响,AI 很难在毫秒级反应里完全模拟人眼。
  • 关于“消除猜测”:Miriam Daniel 这么说,但用户真的会完全消除猜测吗?有时候,哪怕有 3D 视图,遇到那种没见过的复杂立交桥,司机还是会下意识紧张,甚至更依赖屏幕而不是观察现实。

总的来说,Google Maps 这次升级确实是个大动作,把 AI 和 3D 视觉揉在一起,方向是对的。但别太期待它能瞬间变成“自动驾驶辅助大脑”。它更像是一个更聪明的导航员,能帮你规划得更顺,但方向盘还得你自己握,眼睛还得你自己看路。

至于能不能真的跟 Apple 掰手腕,还得看 Gemini 能不能在印度和美国这些复杂路况下,真正跑通,而不是只在实验室里跑分。

火龙果频道