Google 最近把大模型 Gemini 的活儿直接塞进了 Google Maps 里,搞出了个新东西叫 "Ask Maps"。简单说,以后查地图不用在那一堆筛选条件里挑挑拣拣了,直接跟它说话就行。
比如,你不想在大热天挤着找餐厅,就可以直接问:“帮我找个离公司近、有素食、晚上 7 点能坐下四个人的地方。”以前这得在屏幕上划拉半天,现在 AI 直接给你推几个靠谱的。
而且它不光看商家自己填的数据,还会去翻成千上万条用户评论和照片。你想问“哪个洗手间最干净”或者“哪能免费充电但不想喝咖啡”这种刁钻问题,它都能从大家的实拍和吐槽里扒拉出答案来。系统还会看你平时收藏和搜索的习惯,优先给你推顺眼的,甚至能支持一键预订。
除了能“聊”,这次地图还能“看”了。Google 新上了一套叫 “沉浸式导航” 的功能,说实话,这玩意儿确实有点东西。
以前导航就是给你画个箭头,告诉你在哪条道上走。现在不一样了,它用新的 3D 模型把路还原得挺真,连树啊、高架桥的桥墩都能看见,而且随着你车开,画面还会跟着实时路况动。
最让我觉得实用的是那个“预测性引导”。到了那种复杂的立交桥或者多车道路口,它会在屏幕上高亮标出哪条车道能走、红灯什么时候变、旁边有没有斑马线。对于经常迷路或者不敢变道的人来说,这比单纯听语音播报要直观多了。
另外,Google 特意强调,这个新 AI 功能目前还没打算跟商家谈“付费推广”。所有的推荐都是基于你历史数据算出来的,跟商家给不给钱没关系。
关于隐私,Google 也说了,数据都锁在地图自己的生态里,不会去翻你的 Gmail 邮箱啥的。这一点倒是挺让人放心的,毕竟谁也不想自己的聊天记录被导航软件拿去分析。
至于什么时候能用上?"Ask Maps"这周先在 Google Maps 的安卓和苹果手机上试水,首发地是 美国 和 印度,桌面端版本会晚一点。而那个“沉浸式导航”下周先在美区上线,以后慢慢推广到全球,车上的 CarPlay 和安卓车载系统也能用。
老实说,这一波更新感觉 Google Maps 彻底变了味。它不再只是个冷冰冰的“输入地点 – 导航”工具,更像是个懂你习惯、能实时帮你决策的“出行助理”。
以前那种“输入关键词 – 筛选条件 – 看结果”的繁琐操作,现在直接变成“跟我说话 – 它听明白 – 直接给方案”。特别是处理那种既要又要(比如既要在 A 时间又要满足 B 条件)的复杂需求时,这省劲儿多了。
我也注意到,这次 Google 很舍得把静态地图和那些乱七八糟的用户评论、照片(UGC)混在一起用。以前地图上的卫生状况、环境氛围这种没法量化的东西,经常是块空白,现在 AI 能去分析这些非结构化数据,算是解决了老地图更新慢、信息维度太单一的毛病。
至于为什么这么折腾,Google 显然是想走一条“原生数据”的路子,尽量不碰商家的钱。现在欧盟那边的 AI 法案管得严,如果导航结果全被有钱的商家买通,用户肯定跑光,地图的公信力也就崩了。
最后,加上那个 3D 可视化和预测性引导,Google Maps 正从“查完就走”的工具,变成你开车路上的实时搭档。特别是在那些容易堵、容易绕路的复杂路况下,看着眼前的高清 3D 指引,心里那根“会不会走错”的弦确实能松不少。
不过话说回来,虽然功能挺花哨,但真正用起来怎么样,还得看大家实际体验吧。毕竟,看着 3D 模型在屏幕上转悠是挺酷,但会不会在真实驾驶中造成新的视觉干扰,这就得打问号了。
总之,这次 Google Maps 算是把“大模型”这张牌彻底打出来了,导航这事儿,以后可能真得靠跟 AI 聊天来解决了。
