暴露缺陷:谷歌圖片搜索AI對(duì)特定詞組無(wú)能為力
- 來(lái)源:互聯(lián)網(wǎng)
- 作者:NT
- 編輯:newtype2001
谷歌微軟等已在圖片搜索引擎中深度集成人工智能提高圖片識(shí)別率,但仍舊對(duì)人類(lèi)語(yǔ)言的識(shí)別方面有缺陷和盲區(qū),外媒報(bào)道稱當(dāng)在谷歌圖片搜索中輸入“黑人兒童人像(black todller/baby portraits)”請(qǐng)求時(shí),大部分返回的其實(shí)是白人兒童的黑白照片,在搜索“黑人情侶人像”時(shí)Bing也出現(xiàn)類(lèi)似的錯(cuò)誤識(shí)別情況。
當(dāng)然這不是AI的種族歧視,而是特定的算法錯(cuò)誤,這其實(shí)是AI對(duì)處理包含"black""portraits"的詞組組合時(shí),趨向于將搜索者的搜索請(qǐng)求理解為“黑白人物圖像”,而忽略掉中間的“todller/baby ”主語(yǔ)詞匯,當(dāng)輸入類(lèi)似“black baby portraits”的搜索時(shí),就不會(huì)有類(lèi)似問(wèn)題。而其實(shí)在人類(lèi)語(yǔ)言中,Black通常用來(lái)形容人種,而非圖片色彩。對(duì)于人工智能來(lái)說(shuō),在完全理解人類(lèi)語(yǔ)言的潛在意義的道路上還有很長(zhǎng)的路要走。

玩家點(diǎn)評(píng) (0人參與,0條評(píng)論)
熱門(mén)評(píng)論
全部評(píng)論