Ubisoft和Riot正在合作進行抗毒性研究項目,該項目將著重於收集遊戲中的聊天日誌作為AI算法的培訓數據。兩家公司都將於明年夏天從這些數據中發布他們的發現,此時將確定未來的步驟。

Riot技術研究總監Wesley Kerr和Ubisoft La Forge的執行董事Yves Jacquier通過Zoom Call向我講話,他們都分享了他們的目標和對該項目的長期希望。他們希望這是兩家遊戲公司之間AI領域的開放研究合作,他們希望明年發布的學習將是該行業有效利用AI作為降低毒性的工具的第一步。

由於某種原因,當我參加很多聯賽時,Udyr球員總是有毒。我想知道他的返工後是否仍然如此?

根據雅克(Jacquier)的說法,該項目有三個主要目標。首先,要創建一個共享數據集網絡,並充滿了完全匿名的播放器數據。第二,創建可以解決此數據的AI算法。最後,為了使這種夥伴關係成為反對毒性的未來行業計劃的“原型”,鼓勵競爭並進一步進步。

如果考慮到流行的多人遊戲頭銜,Riot和Ubisoft將是兩家用於解決此問題的公司,這是有道理的。彩虹六:圍攻一旦取得成功,圍攻就會很快變得真正的骯髒,而Riot陷入困境的雙胞胎英雄聯盟估價被浸入有毒的滲水中。

在整個採訪中,Kerr和Jacquier都強調了球員的匿名性以及遵守地區法律和GDPR,這是他們的首要任務。當被問及公司之間是否共享玩家數據時,克爾強調,未經玩家同意,您的英雄聯盟帳戶信息不會發送給其他公司。相反,在任何算法都可以選擇並添加聊天日誌之前,聊天日誌將被剝奪識別信息。

當您聽到AI遏制毒性時,想到的最直接的問題是玩家的毅力,決心讓您知道自己的垃圾。新單詞的發明是一種變形的垃圾談話詞典,在線社區中不斷變化。人工智能怎麼回應?根據雅克(Jacquier)的說法,訣竅不是依靠字典和靜態數據源。因此,使用當前播放器聊天日誌的價值,反映當前毒性元。

然後是其他失火的問題,尤其是在朋友,隨機隊友甚至敵方球員之間的友好玩笑可以成為體驗的一部分。如果我在英雄聯盟中扮演頂級車道,而我為0/3車道的對手寫了“漂亮的CS Bud”,那隻是一個玩笑,對嗎?如果他們對我做同樣的事情,那就令人振奮。這使我想贏得更多,並增強體驗。 AI如何確定真正的有害毒性和開玩笑之間的差異?

“這非常困難,”雅克說。 “了解討論的背景是最困難的部分之一。例如,如果玩家威脅另一個球員。在彩虹六中,如果一個玩家說“嘿,我要帶你出去”,那可能是幻想的一部分。而在其他情況下,它可能具有截然不同的含義。”由於其他因素,克爾(Kerr)跟隨視頻遊戲在這方面帶來的一些好處。

據他說,考慮到您排隊的人是一個可以幫助AI確定有趣的肋骨毒性的因素的一個例子。從理論上講,如果您在聯盟大廳中稱自己的終身最好的朋友Dogshit,您將不會被流浪擊中。

至於未來,所有人都關註明年的出版結果。目前,它僅專注於聊天日誌,但是隨著Riot Games正在研究監視Valort的語音通訊,Kerr拒絕將其作為研究領域,如果合作持續到2023年,那麼目前是一個藍圖。漫長旅程的第一步似乎致力於旅行。儘管Kerr和Jacquier都希望該研究項目能夠產生重要的發現,並激發其他公司遵循Suite,但他們並不認為AI是全部,結束了所有毒性適度。

“ AI是一種工具,但不是銀彈。有很多方法可以確保玩家安全,因此,想法是更好地了解如何最好地使用該工具來解決有害內容。”

最終,這項研究只是更廣泛的努力中的一個組成部分,但是在雅克和克爾一項的腦海中,希望將來將至關重要。只有時間才能說明他們是否正確,他們是否可以兌現他們的諾言,即將維持玩家的隱私,以及AI是否真的是抗毒性戰鬥中的下一個邊界。