|
" R* ?7 p8 m( X) O9 a+ K" `& g IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
6 H6 |1 Q ~7 F+ R# {6 C, k
6 g1 J2 k3 K8 H; P& h 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
* g$ O% [0 Q2 e7 w# Z9 d. n 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。
; F- Z$ x6 i, y# I" O/ u 其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。
7 x, V( @( R4 N* ^- p( _3 H 这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
7 X* `2 ^! I# N# A 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
* L5 x+ n* ]* ~9 I3 F( w( \% k x 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
: _7 U5 v6 Y1 [9 l' w: w
3 V% V0 T* \" P' Q1 g: `- ~& }% e
/ F) j8 j: U2 _8 g7 A1 d3 `$ n, l
" v, @/ d6 L2 u/ ]* |0 f, |
2 Q* X* I% Z5 p5 o0 h+ v+ L" k. |8 B1 X" H5 I+ k5 R- b
& l( ]. a1 @' ?; W1 x+ A: x, \% p+ n0 d Q) F8 K* L
0 L' k5 Z7 s! v) V6 }
$ v! \* I- l. \1 h' _ ~
. m5 j7 U: V6 s1 X$ U+ \8 Q
/ o# a+ J: [! r
' H* m- S& t+ i/ w `
) q, T& h; c- U/ V |