|
: m2 S$ _" d* \
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。 ) j. @; Y0 r$ M
7 P/ [% ?& J; K4 J* Y. Z
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
# {3 k' \# i1 V' j 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 9 u2 p' _8 ^. D! c2 s6 c
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。
* ~, E' p: I7 i4 j 这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。 2 x9 T% v1 A! s: O
谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。 % \+ @) P) \; }; y, u9 y/ t
而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
( E2 l$ l `- T ! r3 M% Z' z. Q! C) i3 y2 d+ y0 R# ]" t
, O' L- _5 A( T1 Y" s
' P- ^3 n6 D+ F/ c
, i( b8 y ^' j6 ?; R' Q
. B+ R7 c O3 `
" B* H; Z) }5 K" q' [; b5 ?+ t; x3 k3 B( ]: g6 C
3 u2 G% J! P9 h8 N
3 W1 G* W/ Q( N/ [8 x/ i
# \: v6 b' H7 o0 V3 \+ C3 N. h6 L8 @4 z, a% p3 `, J. V
5 `3 I0 x* w4 N2 w/ b3 z T; r
( ^: J0 J, \. [! _4 W9 q% D" K* c/ R. W8 C/ Y0 ?9 n# x
|