AI可以根據您與合作夥伴的對話情況預測您的關係是否會持續存在

任何被他們的語氣罵過的孩子(或配偶) - 如喊叫或諷刺 - 都知道 方法 你跟別人說話可能和他說話一樣重要 你用的。 聲音藝術家和演員充分利用了這一點 - 他們擅長以他們說話的方式傳授意義,有時甚至比單獨的話語更有價值。

但是,我們的語音和對話模式中傳達了多少信息,這對我們與他人的關係有何影響? 計算系統已經可以建立 誰是他們的聲音他們也可以告訴我們關於我們的愛情生活嗎? 令人驚訝的是,它看起來像。

新研究, 剛剛發表在PLOS-ONE期刊上,分析了接受治療的134夫婦的聲音特徵。 南加州大學的研究人員使用計算機從兩年多的治療會議參與者的錄音中提取標準語音分析功能。 功能 - 包括 瀝青,音調和語調的變化 - 都與音調和強度等語音方面有關。

然後訓練機器學習算法以學習那些聲音特徵與最終治療結果之間的關係。 這並不像檢測喊叫或提高聲音那麼簡單 - 它包括談話的相互作用,他們說話的時間長短以及聲音的聲音。 事實證明,忽略所說的內容並僅考慮這些說話模式足以預測夫妻是否會在一起。 這純粹是數據驅動的,因此它沒有將結果與特定的語音屬性聯繫起來。

語調如何改變幾個詞的含義。

{youtube}https://youtu.be/GVqJtvRj​​uns{/youtube}


內在自我訂閱圖形


有趣的是,然後將治療會議的完整錄像帶給專家進行分類。 與AI不同,他們使用基於聲音(和其他)屬性的心理評估進行預測 - 包括口語和肢體語言。 令人驚訝的是,他們對最終結果的預測(他們在75.6%的案例中是正確的)不如僅基於人聲特徵(79.3%)的AI預測。 顯然,有些元素以我們所說的方式編碼,甚至連專家都沒有意識到。 但最好的結果來自於自動化評估與專家評估(79.6%正確)的結合。

這一點的重要性不在於將AI納入婚姻諮詢或讓夫妻彼此說得更好(無論多麼有價值)。 重要的是揭示有多少關於我們潛在感受的信息以我們說話的方式編碼 - 其中一些信息對我們完全不了解。

寫在頁面或屏幕上的單詞具有從其字典定義派生的詞彙含義。 這些是由周圍詞語的上下文修改的。 寫作可能會非常複雜。 但是,當大聲朗讀單詞時,它們確實具有通過單詞重音,音量,語速和語調傳達的其他含義。 在典型的對話中,每個發言者談話的時間長短以及一個或多個其他人可能插入的速度也有意義。

考慮一個簡單的問題“你是誰?”。 嘗試用不同的詞語來講話; “誰是 ?“, “誰 你和 ” 你是?”。 聽聽這些 - 即使單詞保持不變,語義也會隨著我們的閱讀方式而改變。

電腦讀“洩漏的感官”?

毫不奇怪,單詞根據他們的說法傳達不同的含義。 同樣不足為奇的是,計算機可以解釋我們選擇說話背後的一些含義(也許有一天他們甚至可以 明白諷刺).

但是,這項研究不僅僅關註一句話所傳達的意義。 它似乎揭示了句子背後的潛在態度和思想。 這是一個更深層次的理解。

治療參與者並沒有像演員那樣閱讀。 他們只是自然地說話 - 或者在治療師的辦公室裡盡可能自然地說話。 然而,分析揭示了他們的相互感受的信息,他們無意中“洩漏”到他們的演講中。 這可能是使用計算機確定我們真正的想法或感受的第一步。 想像一下,與未來的智能手機進行交談 - 我們會“洩漏”他們可以獲取的信息嗎? 他們將如何回應?

他們可以通過聽我們一起談話來告訴我們潛在的合作夥伴嗎? 他們能否發現反社會行為,暴力,抑鬱或其他條件的傾向? 想像一下這不會是想像力的飛躍 設備本身作為未來的治療師 - 以各種方式與我們互動,以跟踪他們提供的干預措施的有效性。

不要擔心,因為我們距離這樣的未來還有幾年的時間,但確實會提高 隱私問題特別是當我們與計算機進行更深入的互動時,他們在分析周圍的世界時變得更加強大。

談話當我們停下來考慮除聲音(語音)之外的其他人類感官; 也許我們也通過視覺(如肢體語言,臉紅),觸摸(溫度和運動)甚至氣味(信息素)洩漏信息。 如果智能設備可以通過傾聽我們的發言方式來學習,那麼人們就會感到奇怪 他們還能從其他感官中收集到多少東西.

關於作者

Ian McLoughlin,計算機教授,學校負責人(Medway), 肯特大學

這篇文章最初發表於 談話。 閱讀 原創文章.

相關書籍:

at InnerSelf 市場和亞馬遜