|
9 n& v7 A! B! u IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。 4 l% K% F7 T0 b! L
" Y9 b% Z; O4 O3 } R# A2 r( ~
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
3 @; y8 h2 Z7 S 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 7 a, l, \0 C5 K: B4 C
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 + z) B- E3 o( H' M( k4 U m2 q- H; C
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。 0 G, ?0 x- U! d6 v( ~
谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。 9 |% k3 Z, R3 R) m$ ?+ P
而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
9 ^- A) j+ m% A* U5 g5 _. k# } 0 H9 V7 G, W {, h
- I' A, H% T: U# I$ | $ T9 R3 N- @ t8 L
+ w& B, m" c( K2 A+ Z& z. `
% l" P8 d9 D1 D% @/ d: I
6 _9 v% t ^& t! J8 j* `- c
2 g+ L L: G$ o, J" O# E4 V. {2 W
7 U7 R% Q! Q3 c" Z2 C' p8 {9 u R( |6 a [9 ^0 B7 k* Y6 Q
: b/ Y( }% W, ?9 ~+ c0 y! _; o) z+ Z4 p! x
! m. e1 r7 ~# b( ^2 M" H" b5 O* O& H
* u) o& H3 f$ d
: w7 }- `3 Z* J7 k: X3 Y4 W& P% I: ^
|