Šodien es uzzināju par Intel AI slīdņiem, kas filtrē tiešsaistes spēļu ļaunprātīgu izmantošanu

Cik daudz jūs šodien vēlētos dzirdēt?

bug instagram

Intel paziņojums Bleep sākas ar GDC 2021 prezentācijas 27:24 atzīmi.



Pagājušajā mēnesīvirtuālās GDC prezentācijas laikāIntel paziņojaGulēt, jauns ar AI darbināms rīks, kas, cerams, samazinās toksicitātes daudzumu, kāds spēlētājiem jāpiedzīvo balss tērzēšanā. Pēc Intel domām, lietotne izmanto AI, lai noteiktu un pārveidotu audio, pamatojoties uz lietotāja vēlmēm. Filtrs darbojas uz ienākošo audio, darbojoties kā papildu lietotāja kontrolēts mērīšanas slānis virs tā, ko jau piedāvā platforma vai pakalpojums.



Tas ir cēls darbs, taču Bleepa saskarnē ir kaut kas dīvaini smieklīgs, kurā sīki un sīki uzskaitītas visas dažādas ļaunprātīgas izmantošanas kategorijas, ar kurām cilvēki var saskarties tiešsaistē, kopā ar slīdņiem, lai kontrolētu nepareizas izturēšanās daudzumu, ko lietotāji vēlas dzirdēt. Kategorijas svārstās no agresijas līdz LGBTQ + naids, mizogija, rasisms un ksenofobija un baltais nacionālisms. Ir pat pārslēgšanās uz N vārdu.Miega lapaatzīmē, ka tas vēl nav ievadīts publiskajā beta versijā, tāpēc tas viss var mainīties.

Filtri ietver agresiju, misogyniju ...



Kredīts:Intel

... un pārslēgt N vārdu.

Attēls:Intel

Šķiet, ka lielākajā daļā šo kategoriju Bleep lietotājiem dod izvēles iespējas: vai jūs nevēlaties, lai tiktu filtrēta neviena, dažas, lielākā daļa vai visa šī aizskarošā valoda? Tāpat kā izvēloties kādu no toksisko interneta vircu bufetēm, arī Intel saskarne dod spēlētājiem iespēju smidzināt, viegli pasniedzot agresiju vai piesaucot viņu tiešsaistes spēles.

Bleep ir bijis darbu jau pāris gadus - PCMagpiezīmeska Intel runāja par šo iniciatīvu jau GDC 2019. gadā - un tas strādā ar AI moderēšanas speciālistiemGara AIprogrammatūrā. Bet tiešsaistes telpu moderēšana, izmantojot mākslīgo intelektu, nav viegls sasniegums, kā parādīja tādas platformas kā Facebook un YouTube. Lai gan automatizētās sistēmas var identificēt tieši aizskarošus vārdus, tās bieži neņem vērā noteiktu apvainojumu un draudu kontekstu un nianses. Tiešsaistes toksicitāte izpaužas daudzos, pastāvīgi mainīgos veidos, kurus pat vismodernākajām AI mērīšanas sistēmām var būt grūti pamanīt.



Lai gan mēs atzīstam, ka tādi risinājumi kā Bleep neizdzēš problēmu, mēs uzskatām, ka tas ir solis pareizajā virzienā, dodot spēlētājiem rīku, lai kontrolētu viņu pieredzi, sacīja Intel Roger Chandler GDC demonstrācijas laikā. Intel saka, ka cer atbrīvot Bleep vēlāk šogad, un piebilst, ka tehnoloģija paļaujas uz tās aparatūras paātrinātu AI runas noteikšanu, kas liek domāt, ka programmatūra var darboties paļauties uz Intel aparatūru.