• <div id="8tcit"><span id="8tcit"></span></div>
    <dl id="8tcit"><ins id="8tcit"></ins></dl>
    <dl id="8tcit"></dl>
    <li id="8tcit"><ins id="8tcit"><thead id="8tcit"></thead></ins></li>
    <dl id="8tcit"></dl>
    <div id="8tcit"><tr id="8tcit"></tr></div>

    計世網

    人工智能可以準確判斷你的性取向
    作者:佚名 | 來源:硅谷密探
    2018-09-17
    也許有人不太理解:為什么非得是人工智能,而不是別的技術呢?

     

    我們已經聽過很多遍類似的說法,即“人工智能代表未來科技的方向”。也許有人不太理解:為什么非得是人工智能,而不是別的技術呢?

    這是因為人工智能(Artificial Intelligence,縮寫為 AI)有著其它高科技無法比擬的優勢,就是對“類型的識別”和“不斷從過去的錯誤中學習提高的能力”。

    唐太宗李世民曾言:以史為鑒,可以知興替。小探看到一個對這句話的翻譯,是“Who knows the history, who knows the future”,這句話同樣可以用來描述人工智能。AI 不斷從已有的數據總結經驗,就能對未知的事情做出有把握的判斷。要是放在古代,可不就是神仙嗎?

    事實上,現在的人工智能,真的越來越全能了。它已經用于寫詩、創作歌曲、畫畫和診斷疾病。

    谷歌人工智能繪畫,圖片來自網絡,版權屬于原作者

    最近,斯坦福大學兩位研究人員Yilun Wang 和 Michal Kosinski,創造出一套人工智能系統,可以僅僅通過觀察一個人的照片,就判斷出此人的性傾向。

    也就是說,你是直男還是同性戀,你喜歡女性還是男性,只要讓這個 AI 系統看一看照片就得出結論,而且準確率賊高!

    這個研究結果已經寫成文章,名為《深度神經網絡能比人類更準確地通過面部圖片檢測性取向》(Deep neural networks are more accurate than humans at detecting sexual orientation from facial images),并發明在《人格與社會心理學雜志》期刊上。

    下面咱們來看看,人工智能是怎么做到這一點的。

    首先,研究團隊從美國約會網站的公開信息資料中提取出 35326 個面部圖片樣本,并將圖片輸入一個叫做 VGG-Face 的軟件中,該軟件會為每一個人臉圖分配一個編號。研究人員使用了每個人的一到五張照片,用戶則自己報告自己的性傾向和性行為。

    然后,神經網絡對這些圖片進行學習和提取特征,然后把這些特征輸入到一個旨在對性取向進行分類的邏輯回歸中。

    邏輯回歸(Logistic Regression)是一種模型,和用于解決二分類(0 or 1)問題的機器學習方法,用于估計某種事物的可能性。在該模型對足夠多的數據進行“學習”后,就可以將結果應用于對新樣本的計算和判斷之中。

    該研究得到一個整體性的結果,就是“面部其實包含了更多超出人類大腦能夠感知和翻譯的信息”,但是人工智能有“能力”識別并總結出這些信息。

    比如這個 AI 系統發現:同性戀男性和女性往往具有“性別非典型”特征和表情。舉例說明,男同性戀者通常頜骨較窄,鼻子較長,前額較大,即看起來更偏清秀的“瓜子臉”;與直女相比,女同性戀者的下顎較大,前額較小,看起來更“俊朗”。

    如圖所示:左邊是綜合樣本做出的異性戀者臉部圖,右邊則是同性戀者臉部圖,能明顯看出雙方的差異,右圖中的男女外形更為“中性”,基于性別的典型特征沒有左邊明顯。

    圖片來自論文截圖

    此外,雖然女性一般會笑得更多,但女同性戀者的笑容比異性戀者少。而在修飾打扮方面,女同性戀者往往使用較少的眼妝,頭發顏色更深,并且穿著暴露皮膚更少、衣領更高的衣服,較少女性化的修飾風格。

    論文中總結道:“這項研究觀察到的女性氣質差異是很微妙的,散布在許多面部特征上,只有在檢查許多面部圖像的平均值時才會明顯”。

    此處來一張天海佑希的照片加以說明,怎樣算是“更偏中性”。女神雖然不是同性戀,但卻是“日本女生最想嫁的女人”。

    圖片來自網絡,版權屬于原作者

    當然還有我們的國民女神林青霞:

    圖片來自網絡,版權屬于原作者

    接下來大家一定會好奇:這個 AI 系統經過訓練后,看到新的人物照片就能給出他的性傾向判斷,那么它的準確率高不高?

    答案是非常高,尤其是和人類相比較。

    如果只給出某個人的一張照片,系統對男女性傾向的判斷準確率分別為 81% 和 71%,與此對照,人類判斷的準確率只有 61% 和 54%。如果能獲得五張照片,那么準確率會進一步提高到 91% 和 83%。

    小探時常在微博上看到有人宣稱自己能一眼識別同性戀,也時不時看到網友點評某個男明星:“感覺他很有同性戀的氣質哎”,或者猜測某兩個男明星“他倆應該是真愛吧”......現在可好,不必再捕風捉影,只要把照片給這個人工智能系統,你就能獲得更接近真相的判斷結果。

    不過,除了拿來娛樂,這個系統還有什么用處呢?

    研究人員 Michal Kosinski 說,我們的研究結果為極富爭議的“產前激素理論”提供了強有力的支持。該理論認為:人體的某些激素會在胎兒性別分化中發揮作用,并且后期也會影響成人的性取向,甚至是決定性因素。具體來說,同性戀傾向的形成,是因為男性胎兒對產前雄激素的暴露不足,或女性胎兒對該激素的暴露過多。

    圖片來自網絡,版權屬于原作者

    同性戀的起源原因一直沒有定論,而這項研究,為“同性戀有生理基礎”這一判斷提供了證據。

    另外,這項技術現在是用來判斷性傾向,但未來可以推廣應用到檢測情緒、智商、甚至是犯下某些罪行的傾向上。

    但是,無論是現階段的研究結果,還是未來的延伸方向,這項研究都引發了極大的道德爭議。Kosinski 提到:“我們對這些結果感到非常不安,并花了很多時間考慮是否應該將它們公之于眾”。

    他們最終公開了論文,隨后果然引發了軒然大波。

    一部分人斥責此研究為“偽科學”,因為此研究的對象僅限于美國境內的白種人,并且不能判斷雙性戀者。

    Kosinski 在一篇筆記中反駁道:雖然本研究并不能證明該結論同樣適用于其他種族,但我們發現該結論有適用的可能性。相同的生物學、進化和文化因素促進了同性戀者和異性戀者之間差異的形成,這些因素也很可能會影響其他種族。而識別不了雙性戀者,不會使得已有的結論失效。

    但是更多的討論集中在:此項研究是否侵犯了他人的性取向隱私。

    有人認為,如果你打算和一個人成為朋友或者建立更親密關系,那么知曉對方的性取向是必要的。此前天涯論壇上有過關于“同妻”的熱帖,講述女性嫁給男同性戀后痛苦的婚姻生活。而《華盛頓郵報》上一名作者也寫文章說:“我曾經和一個男性第三次見面后,才知道他是打算跟我約會戀愛的”,并對自己沒能及時察覺這種浪漫走向而感到很尷尬。

    更多人認為:一個人的性取向應該是他或她的隱私,任何人不能隨意知曉;在有些地方,如果性取向被公開,可能會帶來嚴重的后果。

    有人給該項研究人員發來了憤怒的郵件:“你肯定知道在一些國家,同性戀是犯罪行為。所以我認為你是一個支持謀殺同性戀者的恐同混蛋。如果不是,請你銷毀所有跟這個話題有關的工作,否則,我希望能來個人殺了你,因為你的工作將使很多人受到折磨,甚至死亡。”

    來自國際 LGBTI 聯合會的圖像,顯示了世界上同性戀不合法的國家和地區

    Kosinski 對這些警告和威脅進行了回復,表明他們并沒有創建一個侵犯隱私的工具。此項研究工作其實內容有限,只研究了自稱是同性戀或者異性戀的人群;但他同時承認:令人不安的是,我們發現這些技術確實存在這樣的(侵犯隱私)風險。

    如果這個人工智能系統流傳開來,你的照片可能就會被未經允許拿去做測試。畢竟這個時代,想“人肉”出一個社交網絡用戶都能辦到,獲取幾張照片并非難事。想一想:假如你到了結婚的年齡還沒有對象,然后有人拿你的照片去做測試,恰好得出你可能有同性性取向,那么你就可能被流言蜚語纏上。

    而小探還想延伸討論一點:我們說到,該研究方法其實能推廣到檢測情緒智商乃至犯罪傾向上,假如一個人在這些方面的信息,都能被人工智能看照片加以判斷,這不是妥妥的“刻板印象”嗎?

    人工智能經過大量數據分析得到一些普適性結論,然后將結論應用于新的個體上,這種做法人類社會也很常見,但卻是不被倡導的。

    普林斯頓大學信息技術和政策中心的一項研究發現:機器學習和 AI 算法,會不經意強化和擴大了社會上流傳的,或者用戶潛意識中的既定偏見。以上文的性傾向研究為例,如果被廣泛使用,那么人們就更容易把氣質柔和的男性或者外形俊朗的女性,和同性戀聯系起來。

    2013年,哈佛大學的一項研究也發現:非裔美國人的名字更容易和通緝令形成配對。如果這些數據進入人工智能系統,那么判斷新樣本時,一個非裔美國人的名字,顯然會更容易得到“犯罪傾向高”的預測結果。這已經涉嫌種族歧視。

    但是人工智能本身無罪,它就像一面鏡子,折射出人類社會真實的一面,這個真實一面在美國經過幾十年的洗禮,已經被藏起來了,大家只是嘴上不說而已,卻被數據再次揭露出來。如果我們不主動糾正“刻板印象”,那么作為工具的人工智能就會加固這些印象。歸根結底,主觀能動性在人類手中,人工智能的進步,就如核武器一般,確實有可能被使用者拿來做壞事。

    所以,人工智能可以準確判斷你的性取向,你覺得,這是不是一件危險的事兒?

    責任編輯:何周重

    吉林快三走势