AI 時代下,期待一個全語音控制的未來?

本文受到悠識學院 AI/UX 講座「迎向零 UI 時代:設計的新戰場」啟發

我大概五年前開始對著 iPhone 講話,幾乎每次手機充完電,就會和 Siri 說,「開啟省電模式」。朋友看我做這動作,都露出一種不可思議的表情。後來他們教我怎麼設定捷徑,也沒有改變我跟手機說話的習慣,而且變得更日常,現在我八成以上的 Line, MSG 訊息都是用講話的方式回應,而且我已經會很自然而然的說「逗號」,讓輸入法自動變成「,」

誠言之,我內心有點期待這樣的未來,只要說話,就能和機器互動,調閱出想看的檔案,增加生活上的便利性。我有點嚮往電影裡演的情節,對著空氣講話,省去很多手動流程。雖說這樣不知道是人主宰機器,還是反過來被科技宰割⋯⋯

要到達那樣的世界、物聯網大躍進,所謂的 Zero UI,或許還有一段探索的空間。語音互動不只是技術問題,還牽涉到人與機器之間的理解、判斷與信任。人類講話本身是模糊的、曖昧的、修飾的,如果 AI 依照字面上的意思來執行任務,不見得能真正懂得人類。人與人之間要達成共識都有一定難度了,何況是人與機器。

▍文字多重解釋,一句話數百種含義

人在講話的時候,有很多意圖其實是藏在話語背後的,不是表面上呈現的樣貌、不是對方聽到和解讀的訊號。

例如一個人說,「我今天心情不好」,有可能代表他真的需要安慰、遇到了不愉快的事,也可能只是他想討拍、試探你跟他的交情。

又例如我在一些擅長寫文章的人的交鋒討論中,曾經看過有人為別人言行不一的行為寫下「巧言令色」的註解。有些人知道怎麼操縱文字,讓文字成為騙術。

這些都是設計 AI 回應邏輯時,無法單靠語料訓練就能掌握的隱性行為邏輯。

▍從 Normativity 出發,設計 AI 回應行為的判斷依據

在哲學與人文社會科學中,Normativity(規範性)指的是人類社會中對行為與結果的評價基準:什麼是好的?什麼是應該的?什麼是不可接受的?這些判斷與倫理,不僅用於法律、政治、文化,也可以推演到我們與 AI 的互動關係中。

目前大多數 AI 系統擅長的是處理「描述性的事實」:

  • 你說了什麼 → 它分析語句結構
  • 大多數人這樣說 → 它推測你可能想表達這個意思

但它缺乏的是「對規範的理解」:

  • 這樣說合適嗎?
  • 這樣的回應會冒犯、造成誤會或失去信任嗎?

當介面在一些情境下降低使用率,人們用自然語言來與機器互動,「設計」這件事情可能會轉變成設計語境、制定規範、編排對話節奏,建構系統對人類語言的預設回應邏輯、容錯行為、修復機制與倫理界線。在這樣的環境下,設計/資料科學/開發/PM/領域專家等人的協作將成為打造產品脫穎而出的關鍵,從資料收集、知識管理、模型建立到使用者回饋多軌共構。

▍語言是模糊的,價值要是清晰的

過去,文字技能經常被視為平凡的技能。但 AI 時代,這個觀念似乎慢慢轉向,能否用語言表達清楚意圖,有沒有良好的 prompting 能力,就離與 AI 互動的邊界更近一點。

帶有「造詣」的人,在這個氛圍下能突顯優勢。具有這些特質的人,在規劃一個能尊重語言模糊、容忍人性曖昧、穿透文字修飾,能透過互動數據迭代的系統上,也可能會有比較高的敏銳度。

正因為不確定性,更要用清晰的價值觀與規則,來引導與設想人的期待與下一步。

//

不過話說回來,身而為人我們對人際互動總有種浪漫的想像,我們渴望對方超越言語了解你的心情,一個眼神就能示意,「無字暗語,你也心中有知」。流淌在你我之間無形的默契,是有生命體靈性的一面。

人與無機物有可能抵達這樣的境界嗎,當我們要與機器共振,究竟是像攻殼機動隊一樣插上電線,還是腦後植入晶片進入全息投影的世界。

到頭來,我竟然又動搖了。

人類就是這麼矛盾‍。

You may also like