|
* x+ D' e' j& g1 L" H- H! \ IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
- L( V! M* O6 p) W) P" U2 T
, ]; I3 D1 P1 U3 j4 K 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 5 {: ~2 b+ V# g, X' [
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。
% P6 b4 ~ Y6 }# Z0 q 其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 - x) m$ f0 u7 b* _
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。 # p, n- O: k3 E/ Z' \7 c
谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
n3 Q: j- n0 N# N e 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
8 z( j2 y2 q: K+ f% M8 S) a
8 N: f, e* Z$ J; W2 D3 W' X! X; Q
9 @7 ?5 A' M8 d) h3 e& D # e/ u, Z5 e& D
3 D# q8 @# P" E
! b, [" j: o# L: _& B: Q3 }) t
" E' h. ~ ^6 S( q' s2 R; x6 D5 j3 ], N: j8 d* P& x- D
9 I' ^% G f; d( b' t8 U. m
0 I( X9 J3 \* v5 H9 x
/ w" f# V( d8 d0 w4 @. K6 U% g$ g% q1 S% }) H5 M" v7 U. u5 d* U
d$ U' x' E( n3 z @/ P/ _! J
0 `2 ^" T8 V0 O9 I& c& a& x1 d) _+ U1 v5 r! R
|