您現在的位置是:首頁 > 垂釣

谷歌使用AI檢測使用者“歧視性”詞彙,被指侵犯“思想自由”

  • 由 齊魯壹點 發表于 垂釣
  • 2022-05-27
簡介據“今日俄羅斯”4月24日報道,谷歌正在使用一款新的人工智慧“包容性語言助手”來檢測使用者語言中的“歧視性”詞彙,並建議使用者用更“正確”的詞語替換它們

沒有詞彙什麼也表達不

今年4月初,谷歌宣佈使用人工智慧來檢測使用者文件中的“歧視性”詞彙,並建議使用者用更加“包容性”的詞語替換。一些倡導言論自由和隱私保護的人認為,這一功能破壞了使用者的“思想自由”。

據“今日俄羅斯”4月24日報道,谷歌正在使用一款新的人工智慧“包容性語言助手”來檢測使用者語言中的“歧視性”詞彙,並建議使用者用更“正確”的詞語替換它們。

根據谷歌的描述,這一新工具會作為“輔助寫作功能”的一部分,為谷歌文件使用者提供更加簡要生動的短語作為參考,還可以修改潤色文章的語法。同時,潛在的歧視性或不恰當的語言將被標記出來,並自動彈出修改建議,“它可以讓你的寫作更加具有包容性,也更易被讀者接受”。

一些谷歌使用者在社交平臺推特上發出了谷歌助手給他們的建議截圖。其中“housewife(家庭主婦)”一詞被建議更換為“stay-at-home-spouse(居家配偶),“mankind(人類,也可特指人類中的男性)”被建議換成“humankind(人類總稱)”,“policeman(警察,也可特指男警察)”則應改為“police officer(警察)”。除此之外,其他諸如“blacklist/whitelist(黑名單/白名單)”“master/slave(主人/奴隸)”等詞也被列入敏感詞彙。

對此,英國非營利組織“Big Brother Watch”的總監卡洛在23日接受英國《每日電訊報》採訪時表示,谷歌的言論監管行為令人“毛骨悚然”,並稱這種技術是“侵入性的”,“它破壞了使用者隱私和言論自由,更遏制了本應日益增長的思想自由”。

英國學者拉迪克則認為,這一功能扼殺了個人的創造性表達。他對《每日電訊報》說,“難道所有的書面藝術作品,小說、藝術、詩歌……都應當遵循一套相同的、乏味的模板嗎?”

此外,據美國VICE雜誌19日報道,宣揚“白人至上”的美國3K黨(Ku Klux Klan)前領袖大衛·杜克在採訪中曾多次使用帶有殖民背景的侮辱性詞彙“nigger(黑鬼)”一詞來指稱黑人,但谷歌的“包容性語言助手”並沒有對其提出任何警告。

自2020年來,谷歌就要求其員工在程式碼和文件中使用“包容性語言”,並列出了一份“禁止詞彙”清單。例如“black box testing(黑箱測試)”就被要求替換為“opaque box testing(不透明盒測試)”。

谷歌發言人在接受《每日電訊報》採訪時表示,目前還沒能找到一個完美的解決方案,使人工智慧識別儘可能減少不必要的單詞聯想和偏見。同時谷歌也釋出宣告稱,人工智慧技術仍在進步,並不斷從人類輸入中學習,“最終的目標是消除英語語言中‘所有的’偏見和歧視”。

(澎湃新聞)

Top