|
8 w0 B( Q. V9 D2 P' x
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。 8 T' D; u6 _5 `; V8 o7 K# e" }1 ~' ]
) B; w0 D* `' T6 r" h4 O
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 # M7 B8 J& ], ~1 z% F. Z
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 + D2 |. g$ M a! Z G. g& A
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。
$ j4 y' i" `5 D. k 这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
; n0 C& g9 s1 l 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。 % X% C' Q) e/ ^. t- L& g7 q
而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。 - Q+ m/ ^6 P) {, K* `) U) J! J: E
9 _2 N+ _, M# N& {
5 }4 M% q4 K. x" B. C B7 K. A- ` ( o# c% w, ]' v7 p
; e; K1 G: p/ ~5 F0 F% B
# P) R5 v. C8 X, l' G- f3 z# u$ D# {
1 p) |: `. N8 q+ T6 v6 o
9 O5 I+ W7 Y! ?7 G3 k
/ ?$ F! `4 S" S8 n/ e# ~) x3 ?$ a3 b6 L) r
: Z8 S# I7 h3 M5 D
9 z# p" V0 T$ J! r+ U ]9 ^
' d4 S o& u! v% b# i
' T5 }# l$ A6 P. e$ ^' E |