|
4 l. q* t! Q) A9 u' I; ]) a- n; Q* X
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
0 \* c# |2 p, T) L* e4 f' o
Z: i J( I7 g3 e) ^ ]: n 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 . e6 D+ Z$ j1 w. ~- ]8 Z
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 ! |# U2 B, q' F$ Q; O) j8 j: b q5 g
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。
; C2 F/ q, `5 u* a7 e2 W 这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
S3 A. X+ |; H" ~ 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
' k/ B3 S9 x, u: b& ~ 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。 0 I3 W" `+ v/ T
8 h; h: E9 W$ y% E7 B$ F
& X; X, G) w( u+ `- H
% _ G+ S9 I8 f: r w e
& {% Y$ ~$ w* a4 {
/ H1 Z& b* I) b) g- [ Z, \: J
6 N$ P( M1 w F0 E7 f# u+ K7 R4 V, O4 m0 L
- K- a, I& r8 _5 n, }) G7 u( U0 Z# r2 I6 l# s% s& ]
6 L0 } L( c, E' U; q2 T% a
: S: x5 I) S6 D
. \6 u9 B/ T# n4 n
! M# p" _0 Z0 n( @/ w, N8 F2 {
2 j, w6 o: v" E. T2 g0 s$ F6 T |