為什麼你應該擔心矽谷想要讀懂你的想法

為什麼你應該擔心矽谷想要讀懂你的想法 圖像流/ Shutterstock

幾乎不滿足於監控 你在網上做的一切,Facebook現在也想讀懂你的想法。 這家社交媒體巨頭最近宣布 突破 在計劃中創建一個能夠讀取人們腦波的設備,讓他們只是通過思考來輸入。 而埃隆馬斯克想要走得更遠。 特斯拉老闆的其他公司之一,Neuralink,是 開發腦植入物 將人們的思想直接聯繫到計算機。

馬斯克承認他 獲得靈感 來自科幻小說,他想確保人類可以 “跟上”人工智能。 他似乎錯過了科幻片的一部分,作為對技術影響的警告。

這些思維閱讀系統可能會影響我們的隱私,安全,身份,平等和人身安全。 我們是否真的希望所有這些都留給那些擁有Facebook前口頭禪等哲學的公司,“快速行動,打破局面“?

雖然它們聽起來很具有未來感,但製造腦波讀取設備所需的技術與世界各地醫院使用的標準MRI(磁共振成像)和腦電圖(腦電圖)神經科學工具並沒有什麼不同。 你已經可以買一個套件來控制無人機 用你的想法因此,在某些方面,使用一個輸入單詞並不是一個很大的飛躍。 這種進步可能是由於使用機器學習來篩選從我們的大腦收集的大量數據,並找到將思想與特定單詞聯繫起來的神經元活動模式。

大腦植入可能需要更長的時間來開發,並且將實際分離出來是很重要的 Neuralink的成就 來自媒體宣傳和推廣。 但是,Neuralink同時改進了電極材料和機器人輔助手術以植入它們,整齊地包裝技術,以便通過USB讀取。

Facebook和Neuralink的計劃可能建立在既定的醫療實踐基礎之上。 但是,當公司直接從我們的大腦收集思想時,道德問題就大不相同了。


從InnerSelf獲取最新信息


任何可以直接從我們的大腦收集數據的系統都有明顯的隱私風險。 隱私是關於同意。 但是,如果有人直接利用我們的想法,那麼很難給予適當的同意。 矽谷公司(和政府)已經 偷偷摸摸地聚集起來 盡可能多的關於我們的數據並以我們的方式使用它 相反,他們沒有。 我們有多確定我們的隨機和個人想法不會被捕獲並與我們想要提供技術的指示一起研究?

歧視和操縱

數據收集存在的道德問題之一 是歧視 基於可從數據中辨別的性別或種族等屬性。 為人們的思想提供一個窗口可以更容易地確定可能構成偏見基礎的其他事物,例如性行為或政治意識形態,甚至可能包括自閉症之類的不同思維方式。

通過直接接入大腦的系統,您的思想不僅可能被盜,而且也可能被操縱。 已經開發出腦刺激來幫助 治療創傷後應激障礙 - 減少暴力。 甚至有聳人聽聞的說法,它可以用來 直接上傳知識 就像電影“黑客帝國”一樣。

可預測的步驟是將“入”和“出”技術結合起來用於雙向腦機接口。 政府有可能使我們更加合規,雇主迫使我們更加努力,或者讓公司讓我們想要更多他們的產品,這些都強調了我們應該多麼認真對待這項技術。

為什麼你應該擔心矽谷想要讀懂你的想法 Facebook的原型腦波讀取設備。 Facebook

如果精神閱讀設備成為與計算機交互的正常方式,我們可能最終別無選擇,只能使用它們以便跟上更高效的同事。 (想像一下,今天有人申請辦公室工作,但拒絕使用電子郵件。)如果神經鏈接式植入物成為常態,這也可能導致更大的不平等,這取決於您可以安裝的套件水平。

伊隆麝香 已經說過了 支持Neuralink手術所需的巨額貸款將被“增強”的潛在收入所抵消。 人們感到有壓力要承擔巨額債務以進行手術以保住工作的想法直接來自科幻反烏托邦。

最重要的是,系統物理侵入我們的大腦會帶來更直接的物理威脅。 雖然有些人可能想用計算機界面修改他們的大腦(已經有很多人 實驗生物黑客),要大規模推廣這將需要大規模和徹底的測試。

考慮到矽谷打破事物而不是停下來思考它們的聲譽(和傾向),這些系統甚至需要密切監管和道德審查 在測試開始之前。 否則就有可能造成殘缺的人類豚鼠。

儘管如此,在這一領域繼續研究可能會有巨大的優勢,特別是那些患有癱瘓或感覺障礙的人。 但矽穀不應該決定這些技術的開發和部署方式。 如果他們這樣做,它可能會徹底重塑我們認定為人類的方式。談話

關於作者

加菲爾德本傑明,媒體藝術與技術學院博士後研究員, 索倫特大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

關注InnerSelf

Facebook的圖標Twitter的圖標RSS圖標

通過電子郵件獲取最新信息

{emailcloak = OFF}