|
0 ?% p+ }: k! ~, ^
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。 9 h- Z' \. s/ ` F& T# M: J0 t
, f8 M# K1 l+ X4 ^/ s7 q$ ? 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
4 h9 W9 W5 |; Q0 u7 F/ a7 H- Z% n) R 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。
1 L6 }# q) N: ?4 k+ c 其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 % x* B; ?; k0 T, Y5 {6 a. X
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。 1 Y2 H1 x+ a3 L1 h
谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。 : u) \2 T! R Y
而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。 9 q/ R+ N: Z8 g- V5 T
/ X5 I1 [8 w s w( x! N5 ]. m9 o
$ e3 L" Q0 ^# ?
: ?' j* h$ e; W2 p8 A( r
) h/ W- E/ l T# c: [# ?
6 E8 U! B# L; h. x/ a' r% ]) g5 S! i2 ?- X/ a
4 w1 v/ }$ H6 l! V! T, n) K* K' J
5 _2 I0 R! ?. v+ [4 p5 v# f+ R
/ V I2 U# P9 t; n8 | ~0 w) f& n) ] ]. H; L* [
) v" Q! F( k# n/ N1 P- t0 }# Q
$ m5 r4 k: W+ I! q/ ^
5 c9 C: O, s# ?# s: g* Z5 Y |