https://sellio.store/pl/page/90/     https://fashionetta.org/pl/page/90/     https://home-partner.org/pl/page/90/     https://car-paradise.org/pl/page/90/     https://car-accessories.net/pl/page/90/     https://modeo-shop.com/pl/page/90/     https://wibratory.net/pl/page/90/     https://etui-empire.com/pl/page/90/     https://e-papierosy.org/pl/page/90/     https://ero-land.org/pl/page/90/     https://lampy-sklep.com/pl/page/90/     https://desteo.org/pl/page/90/     https://shopara.org/pl/page/90/     https://shopme-online.org/pl/page/90/     https://shopinio.org/pl/page/90/     https://shopopolis.org/pl/page/90/     https://shoporama.org/pl/page/90/     https://desuto.org/pl/page/90/     https://shopsy-online.org/pl/page/90/     https://e-shopsy.org/pl/page/90/     https://vandershop.net/pl/page/90/    https://ero-land.org/pl/page/90/    https://modern-style.info/    https://net-women.com/de/

int-news.info

Kolejna witryna oparta na WordPressie

News

GGWP to system SI, który śledzi i zwalcza toksyczność w grze.

Jeśli chodzi o gry online, wszyscy wiemy, że przycisk „zgłoś” nic nie daje. Niezależnie od gatunku, wydawcy czy budżetu, każdego dnia na rynku pojawiają się gry z nieefektywnymi systemami zgłaszania nadużyć, a niektóre z największych tytułów na świecie stale przepraszają za istnienie toksycznych środowisk. Takie marki jak League of Legends, Call of Duty, Counter-Strike, Dota 2, Overwatch, Ark i Valorant mają tak wrogie społeczności, że ta reputacja jest częścią ich marki – sugerowanie tych gier nowym graczom zawiera ostrzeżenie o zaciekłości, jakiej doświadczą na czacie.

Można odnieść wrażenie, że przycisk zgłaszania często wysyła skargi bezpośrednio do kosza na śmieci, który jest następnie podpalany co kwartał przez jednoosobowy dział moderacji. Według legendarnego profesjonalisty w esporcie Quake i Doom, Dennisa Fonga (lepiej znanego jako Thresh), nie jest to dalekie od prawdy w wielu studiach AAA.

„Nie będę wymieniał nazwisk, ale niektóre z największych gier na świecie były takie, że wiesz, szczerze mówiąc, to nigdzie nie idzie” – powiedział Fong. „Trafiają do skrzynki odbiorczej, do której nikt nie zagląda. Czujesz to jako gracz, prawda? Czujesz się przygnębiony, bo myślisz sobie: „Zgłaszałem tego samego gościa 15 razy i nic się nie stało”.

Twórcy i wydawcy gier mieli dziesiątki lat na to, aby samodzielnie wymyślić, jak walczyć z toksycznością graczy, ale wciąż tego nie zrobili. Więc Fong to zrobił.

W tym tygodniu ogłosił GGWP, system napędzany przez sztuczną inteligencję, który zbiera i porządkuje dane o zachowaniach graczy w dowolnej grze, pozwalając twórcom gier na reagowanie na każde zgłoszenie poprzez połączenie automatycznych odpowiedzi i opinii prawdziwych graczy. Po wprowadzeniu do gry – „To dosłownie jak linijka kodu” – powiedział Fong – API GGWP agreguje dane o graczach, aby wygenerować wynik dotyczący zdrowia społeczności i wyszczególnić typy toksyczności typowe dla danej gry. W końcu każda gra to płatek śniegu, jeśli chodzi o nadużycia na czacie.

GGWP

System może również przypisywać poszczególnym graczom punkty reputacji, na podstawie analizy zgłoszonych meczów przeprowadzonej przez sztuczną inteligencję oraz złożonego zrozumienia kultury każdej gry. Deweloperzy mogą następnie przypisać reakcje na określone wyniki reputacji, a nawet na określone zachowania, ostrzegając graczy o spadku ich reputacji lub po prostu wyciągając młotek banujący. System jest w pełni konfigurowalny, dzięki czemu w grze takiej jak Call of Duty: Warzone mogą obowiązywać inne zasady niż na przykład w Roblox.

„Bardzo szybko zdaliśmy sobie sprawę, że po pierwsze, wiele z tych zgłoszeń jest takich samych” – powiedział Fong. „Z tego powodu można wykorzystać big data i sztuczną inteligencję, aby pomóc w selekcji zgłoszeń. Zdecydowana większość tych spraw jest wręcz idealnie przygotowana do tego, aby SI zajęła się tym problemem. Ludzie po prostu jeszcze się do tego nie zabrali”.

GGWP to pomysł Fonga, Kun Gao, założyciela Crunchyroll, oraz dr George’a Ng, eksperta w dziedzinie danych i sztucznej inteligencji. Do tej pory GGWP pozyskało 12 milionów dolarów z funduszy zalążkowych, wspieranych między innymi przez Sony Innovation Fund, Riot Games, założyciela YouTube Steve’a Chena, streamera Pokimane oraz twórców Twitcha Emmetta Sheara i Kevina Lina.

GGWP

Fong i jego współpracownicy zaczęli budować GGWP ponad rok temu, a dzięki swoim powiązaniom z branżą byli w stanie spotkać się z szefami studiów AAA i zapytać, dlaczego moderacja jest tak uporczywym problemem. Okazało się, że problem jest dwojaki: Po pierwsze, studia te nie postrzegały toksyczności jako problemu, który same stworzyły, więc nie widziały w tym problemu.

nie bierze za to odpowiedzialności (możemy to nazwać Zuckerberg Special). Po drugie, nadużyć było po prostu zbyt wiele, by sobie z nimi poradzić.

Jak twierdzi Fong, w ciągu jednego roku do jednej z dużych gier wpłynęło ponad 200 milionów zgłoszeń od graczy. Kilku innych szefów studiów, z którymi rozmawiał, również podawało liczby dziewięciocyfrowe, a gracze generowali setki milionów zgłoszeń rocznie na jedną grę. A problem był jeszcze większy .

„Jeśli w jednej grze gracze donoszą na siebie nawzajem w liczbie 200 milionów, to skala problemu jest ogromna” – powiedział Fong. „Jak już wspomnieliśmy, ludzie się poddają, bo nic z tego nie wychodzi. Po prostu przestają na siebie donosić”.

Kierownictwo powiedziało Fongowi, że po prostu nie jest w stanie zatrudnić wystarczającej liczby osób, aby nadążyć za tym problemem. Co więcej, na ogół nie byli zainteresowani tworzeniem zespołu tylko po to, by opracować zautomatyzowane rozwiązanie – jeśli już zatrudniali ludzi zajmujących się Sztuczną Inteligencją, chcieli, by tworzyli oni grę, a nie system moderacji.

Ostatecznie większość studiów AAA zajmowała się około 0,1 procenta zgłoszeń otrzymywanych każdego roku, a ich zespoły moderacyjne były zwykle śmiesznie małe – odkrył Fong.

GGWP

„W przypadku niektórych największych wydawców na świecie ich zespoły zajmujące się przeciwdziałaniem toksycznym zachowaniom graczy liczą mniej niż 10 osób” – powiedział Fong. „Nasz zespół liczy 35 osób. Jest to 35 osób, w tym wszyscy pracownicy działu produktu, inżynierii i naukowcy zajmujący się danymi. Jako zespół jesteśmy więc więksi niż prawie każdy zespół globalnego wydawcy, co jest trochę smutne. Jesteśmy bardzo oddani i zaangażowani, aby pomóc w rozwiązaniu tego problemu”.

Fong chce, aby GGWP wprowadziło nowy sposób myślenia o moderacji w grach, skupiając się na wdrażaniu momentów uczących, a nie na bezpośrednim karaniu. System jest w stanie rozpoznać pomocne zachowania, takie jak dzielenie się bronią czy ratowanie kolegów z drużyny w trudnych warunkach, i w odpowiedzi na nie może przyznać graczowi premię do jego wyniku reputacji. Umożliwiłoby to także twórcom gry wprowadzenie powiadomień w czasie rzeczywistym, na przykład alertu z napisem „straciłeś 3 punkty reputacji”, gdy gracz użyje niedopuszczalnego słowa. Dzięki temu, miejmy nadzieję, zniechęciliby się oni do ponownego wypowiedzenia tego słowa, co zmniejszyłoby liczbę zgłoszeń dotyczących danej gry” – powiedział Fong. Studio musiałoby wykonać trochę dodatkowej pracy, aby wdrożyć taki system powiadomień, ale GGWP może sobie z tym poradzić, twierdzi Fong.

„Całkowicie zmodernizowaliśmy podejście do moderacji” – powiedział. „Muszą tylko chcieć spróbować”.

Wszystkie produkty polecane w serwisie Engadget są wybierane przez nasz zespół redakcyjny, niezależny od naszej firmy macierzystej. Niektóre z naszych artykułów zawierają linki afiliacyjne. Jeśli kupisz coś za pośrednictwem jednego z tych linków, możemy otrzymać prowizję partnerską.


Czytaj dalej: https://www.engadget.com/toxic-abuse-games-ggwp-aaa-chat-thresh-222747956.html?src=rss

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.