Dynamisk spel svårighetsbalansering

Dynamisk spelsvårighetsbalansering ( DGDB ), även känd som dynamisk svårighetsjustering ( DDA ) eller dynamisk spelbalansering ( DGB ), är processen att automatiskt ändra parametrar, scenarier och beteenden i ett videospel i realtid, baserat på spelarens förmåga, för att undvika att göra spelaren uttråkad (om spelet är för lätt) eller frustrerad (om det är för svårt). Målet med dynamisk svårighetsbalansering är att hålla användaren intresserad från början till slut, vilket ger en bra nivå av utmaning.

Traditionellt ökar spelets svårighetsgrad stadigt under spelets gång (antingen på ett smidigt linjärt sätt eller genom steg representerade av nivåer). Parametrarna för denna ökning (hastighet, frekvens, startnivåer) kan bara moduleras i början av upplevelsen genom att välja en svårighetsnivå . Ändå kan detta leda till en frustrerande upplevelse för både erfarna och oerfarna spelare, eftersom de försöker följa en förvald inlärnings- eller svårighetskurvor utgör många utmaningar för spelutvecklare; som ett resultat är denna spelmetod inte utbredd. [ citat behövs ]

Dynamiska spelelement

Några delar av ett spel som kan ändras via dynamisk svårighetsbalansering inkluderar:

  • Fiendernas hastighet
  • Fiendernas hälsa
  • Frekvens av fiender
  • Frekvens av powerups
  • Spelarens kraft
  • Fiendernas makt
  • Spelupplevelsens varaktighet

Närmar sig

[A]s spelare arbetar med ett spel bör deras poäng återspegla stadiga förbättringar. Nybörjare ska kunna göra vissa framsteg, medelåldern ska få medelpoäng och erfarna spelare ska få höga poäng... Helst är utvecklingen automatisk; spelare börjar på nybörjarnivå och de avancerade funktionerna tas in när datorn känner igen skickligt spel.

Chris Crawford , 1982

Olika tillvägagångssätt finns i litteraturen för att ta itu med dynamisk spelsvårighetsbalansering. I alla fall är det nödvändigt att mäta, implicit eller explicit, den svårighet användaren står inför vid ett givet ögonblick. Denna åtgärd kan utföras av en heuristisk funktion, som vissa författare kallar "utmaningsfunktion". Denna funktion mappar ett givet speltillstånd till ett värde som anger hur lätt eller svårt spelet känns för användaren vid ett specifikt ögonblick. Exempel på heuristik som används är:

  • Frekvensen för lyckade skott eller träffar
  • Antalet vunna och förlorade pjäser
  • Livspoäng
  • Evolution
  • Dags att slutföra en uppgift

... eller något mått som används för att beräkna ett spelresultat . Chris Crawford sa "Om jag skulle göra en graf över en typisk spelares poäng som en funktion av tiden som spenderats i spelet, borde den grafen visa en kurva som sluttar mjukt och stadigt uppåt. Jag beskriver ett sådant spel som att ha en positiv monoton kurva" . Spel utan en sådan kurva verkar "antingen för svåra eller för lätta", sa han.

Hunicke och Chapmans tillvägagångssätt styr spelmiljöinställningarna för att göra utmaningar lättare eller svårare. Till exempel, om spelet är för hårt, får spelaren fler vapen, återvinner livspoäng snabbare eller möter färre motståndare. Även om detta tillvägagångssätt kan vara effektivt, kan dess tillämpning resultera i osannolika situationer. Ett enkelt tillvägagångssätt är att kombinera sådan "parametermanipulation" med vissa mekanismer för att modifiera beteendet hos icke-spelarens karaktärer (karaktärer som kontrolleras av datorn och vanligtvis modelleras som intelligenta agenter). Denna justering bör dock göras med måtta för att undvika "gummiband"-effekten. Ett exempel på denna effekt i ett racingspel skulle innebära att AI-förarens fordon blir betydligt snabbare bakom spelarens fordon och betydligt långsammare när de är framför, som om de två fordonen var förbundna med ett stort gummiband .

En traditionell implementering av en sådan agents intelligens är att använda beteenderegler, definierade under spelutveckling . En typisk regel i ett fightingspel skulle säga "slå motståndaren om han är nåbar, jaga honom annars". Att utvidga ett sådant tillvägagångssätt till att omfatta opponentmodellering kan göras genom Spronck et al. s dynamiska skript , som tilldelar varje regel en sannolikhet att bli utvald. Regelvikter kan uppdateras dynamiskt under hela spelet, i enlighet med motståndarens färdigheter, vilket leder till anpassning till den specifika användaren. Med en enkel mekanism kan regler väljas som genererar taktik som varken är för stark eller för svag för den nuvarande spelaren.

Andrade et al. dela upp DGB-problemet i två dimensioner: kompetens (lära så bra som möjligt) och prestation (agera lika bra som nödvändigt). Denna dikotomi mellan kompetens och prestation är välkänd och studerad inom lingvistik , som föreslagits av Noam Chomsky . Deras tillvägagångssätt möter båda dimensionerna med förstärkningsinlärning (RL). Offlineträning används för att starta inlärningsprocessen. Detta kan göras genom att låta agenten spela mot sig själv (självlärande), andra förprogrammerade agenter eller mänskliga spelare. Sedan används onlineinlärning för att kontinuerligt anpassa denna initialt inbyggda intelligens till varje specifik mänsklig motståndare, för att upptäcka den mest lämpliga strategin att spela mot honom eller henne. När det gäller prestation är deras idé att hitta en adekvat policy för att välja åtgärder som ger en bra spelbalans, dvs åtgärder som håller både agent och mänsklig spelare på ungefär samma prestationsnivå. Beroende på svårigheten spelaren står inför väljer agenten åtgärder med hög eller låg förväntad prestation. För en given situation, om spelnivån är för hård, väljer agenten inte den optimala åtgärden (som tillhandahålls av RL-ramverket), utan väljer gradvis mindre och mindre suboptimala handlingar tills dess prestation är lika bra som spelarens. På samma sätt, om spelnivån blir för lätt, kommer den att välja åtgärder vars värden är högre, möjligen tills den når optimal prestanda.

Demasi och Cruz byggde intelligenta agenter som använder genetiska algoritmer för att hålla agenter vid liv som bäst passar användarnivån. Online coevolution används för att påskynda inlärningsprocessen. Online coevolution använder fördefinierade modeller (agenter med goda genetiska egenskaper) som föräldrar i de genetiska operationerna, så att evolutionen är partisk av dem. Dessa modeller är konstruerade genom offlineträning eller för hand, när den genetiska kodningen är enkel nog.

Annat arbete inom området DGB bygger på hypotesen att interaktionen mellan spelare och motståndare – snarare än de audiovisuella funktionerna, sammanhanget eller spelets genre – är den egenskap som bidrar med majoriteten av kvalitetsegenskaperna för underhållning i en dator spel. Baserat på detta grundläggande antagande introducerades ett mått för att mäta underhållningsvärdet i realtid för predator/prey-spel, och fastställdes som effektivt och tillförlitligt genom validering mot mänskligt omdöme.

Ytterligare studier av Yannakakis och Hallam har visat att artificiella neurala nätverk (ANN) och fuzzy neurala nätverk kan extrahera en bättre uppskattning av spelarnas tillfredsställelse än en mänskligt utformad, givet lämpliga uppskattare av utmaningen och nyfikenheten (inneboende kvalitativa faktorer för att engagera spelet enligt till Malone) av spelet och data om mänskliga spelares preferenser. Tillvägagångssättet att konstruera användarmodeller av spelaren i ett spel som kan förutsäga svaren på vilka varianter av spelet som är mer eller mindre roliga definieras som Entertainment Modeling . Modellen är vanligtvis konstruerad med hjälp av maskininlärningstekniker som tillämpas på spelparametrar härledda från spelare-spelinteraktion och/eller statistiska egenskaper hos spelarens fysiologiska signaler som registrerats under spel. Detta grundläggande tillvägagångssätt är tillämpbart på en mängd olika spel, både datorer och fysiska.

Varningar

Att designa ett spel som är rättvist utan att vara förutsägbart är svårt. Andrew Rollings och Ernest Adams nämner ett exempel på ett spel som ändrade svårighetsgraden för varje nivå baserat på hur spelaren presterade på flera föregående nivåer. Spelare märkte detta och utvecklade en strategi för att övervinna utmanande nivåer genom att medvetet spela dåligt i nivåerna före den svåra. Författarna betonar vikten av att dölja förekomsten av svårighetsanpassning så att spelarna inte är medvetna om det.

Används i senaste videospel

Ett tidigt exempel på svårighetsbalansering finns i Zanac , utvecklad 1986 av Compile . Spelet innehöll en unik adaptiv artificiell intelligens , där spelet automatiskt justerade svårighetsgraden enligt spelarens skicklighetsnivå, eldhastighet och skeppets nuvarande defensiva status/kapacitet. Tidigare än detta kan hittas i Midways 1975 Gun Fight myntspel. Detta head to head shoot-em-up skulle hjälpa vilken spelare som just hade blivit skjuten genom att placera ett nytt extra föremål, som en kaktusplanta, på deras halva av spelplanen vilket gör det lättare för dem att gömma sig.

Archons datormotståndare anpassar sig långsamt över tiden för att hjälpa spelare att besegra den . Danielle Bunten designade både MULE och Global Conquest för att dynamiskt balansera spelet mellan spelare. Slumpmässiga händelser justeras så att spelaren på första plats aldrig har tur och spelaren på sista plats aldrig har otur.

Det första Crash Bandicoot- spelet och dess uppföljare använder sig av ett "Dynamic Difficulty Adjustment"-system, saktar ner hinder, ger extra träffpoäng och lägger till fortsättningspoäng enligt spelarens antal dödsfall. Enligt spelets huvuddesigner Jason Rubin var målet att "hjälpa svagare spelare utan att förändra spelet för de bättre spelarna".

TV-spelet Flow var känt för att popularisera tillämpningen av mental nedsänkning (även kallad flow ) på videospel med sin 2006 års Flash-version. Tv-spelsdesignen baserades på en av dess författares masteruppsats och anpassades senare till PlayStation 3.

SiN-avsnitt som släpptes 2006 innehöll ett "Personal Challenge System" där antalet och tuffheten hos fiender som möttes skulle variera baserat på spelarens prestanda för att säkerställa utmaningsnivån och utvecklingstakten genom spelet. Utvecklaren, Ritual Entertainment , hävdade att spelare med vitt skilda nivåer av förmåga kunde avsluta spelet inom ett litet tidsintervall från varandra.

2005 använde Resident Evil 4 ett system som kallas "Difficulty Scale", okänt för de flesta spelare, eftersom det enda omnämnande av det var i den officiella strategiguiden. Detta system graderar spelarens prestation på en sifferskala från 1 till 10, och justerar både fiendens beteende/angrepp och fiendens skada/motstånd baserat på spelarens prestation (som dödsfall, kritiska attacker, etc.). De valda svårighetsnivåerna låser spelare vid ett visst antal; till exempel, på normal svårighetsgrad börjar man i årskurs 4, kan gå ner till årskurs 2 om det går dåligt, eller upp till årskurs 7 om det går bra. Betygen mellan svårigheter kan överlappa varandra.

God Hand , ett videospel från 2006 utvecklat av Clover Studio , regisserat av Resident Evil 4- regissören Shinji Mikami , och publicerat av Capcom för PlayStation 2 , har en mätare under spelandet som reglerar fiendens intelligens och styrka. Denna mätare ökar när spelaren lyckas undvika och attackera motståndare, och minskar när spelaren träffas. Mätaren är uppdelad i fyra nivåer, där den svåraste nivån kallas "Level DIE". Spelet har också tre svårigheter, där den lätta svårigheten bara tillåter mätaren att stiga till nivå 2, medan den svåraste svårigheten låser mätaren till nivån DIE. Detta system erbjuder också större belöningar när du besegrar fiender på högre nivåer.

Tv-spelet Left 4 Dead från 2008 använder en teknik för artificiell intelligens som kallas "The AI ​​Director". AI Director används för att procedurmässigt generera en annan upplevelse för spelarna varje gång spelet spelas. Den övervakar individuella spelares prestationer och hur väl de arbetar tillsammans som en grupp för att tempot i spelet, bestämmer antalet zombies som attackerar spelaren och platsen för bossinfekterade möten baserat på information som samlats in. Direktören bestämmer också hur snabbt spelarna rör sig genom nivån mot varje mål; om den upptäcker att spelare har stannat på ett ställe för länge eller inte gör tillräckliga framsteg, kommer den att kalla fram en hord av vanliga infekterade för att tvinga alla närvarande spelare och AI-karaktärer att flytta från sin nuvarande plats och bekämpa det nya hotet. Förutom pacing styr regissören även vissa video- och ljudelement i spelet för att skapa en stämning för ett möte med chefen eller för att dra spelarnas uppmärksamhet till ett visst område. Valve kallar det sätt som regissören arbetar på för " procedural narrative " för istället för att ha en svårighetsnivå som bara stiger upp till en konstant nivå, analyserar AI hur spelarna klarat sig i spelet hittills och försöker lägga till efterföljande händelser som skulle ge dem en känsla av berättande.

Madden NFL 09 introducerar "Madden IQ", som börjar med ett valfritt test av spelarnas kunskaper om sporten och förmågor i olika situationer. Poängen används sedan för att kontrollera spelets svårighetsgrad.

I match-3-spelet Fishdom justeras tidsgränsen utifrån hur bra spelaren presterar. Tidsgränsen förlängs om spelaren misslyckas med en nivå, vilket gör det möjligt för alla spelare att slå en nivå efter några försök.

I videospelet Homeworld från 1999 kommer antalet skepp som AI:n börjar med i varje uppdrag att ställas in beroende på hur kraftfull spelet anser att spelarens flotta är. Framgångsrika spelare har större flottor eftersom de tar färre förluster. På så sätt kommer en spelare som är framgångsrik över ett antal uppdrag att börja utmanas mer och mer allt eftersom spelet fortskrider.

I Fallout: New Vegas och Fallout 3 , när spelaren ökar i nivå, kommer tuffare varianter av fiender, fiender med högre statistik och bättre vapen, eller nya fiender att ersätta äldre för att behålla en konstant svårighetsgrad, som kan höjas med en reglage , med erfarenhetsbonusar och vice versa i Fallout 3 . Detta kan också göras i New Vegas , men det finns ingen bonus för att öka eller minska svårigheten.

Mario Kart- serien innehåller föremål under lopp som hjälper en individuell förare att komma före sina motståndare. Dessa objekt fördelas baserat på en förares position på ett sätt som är ett exempel på dynamisk spelsvårighetsbalansering. Till exempel, en förare nära botten av fältet kommer sannolikt att få ett föremål som drastiskt kommer att öka sin hastighet eller kraftigt minska hastigheten för sina motståndare, medan en förare på första eller andra plats kan förvänta sig att få den här typen av föremål sällan ( och kommer förmodligen att få spelets svagare föremål). Spelets datorracers anpassar sig också till spelarens hastighet - saktar ner när den ledande spelaren är för långt efter den bästa datorracern, och vice versa - eftersom de rivaliserande datorracerna kommer ikapp spelaren först.

Påstådd användning för att forma spelarens köpbeteende

En grupptalan i USA:s distriktsdomstol för Northern District of California anklagade spelutvecklaren Electronic Arts för att använda sin patenterade Dynamic Difficulty Adjustment -teknologi i tre av sina EA Sports- franchiser – Madden NFL , FIFA och NHL – i alla spel tillbaka till 2017 års versioner. Målsäganden säger att EA använder denna teknik för att driva spelare att köpa fler loot boxes i form av Player Packs, och säger att det effektivt gör att även högstatliga spelare inte spelar så bra som de borde.

Dräkten noterar också att EA använder den här tekniken utan att avslöja den för spelarna, och noterar att EA tidigare har förnekat dess användning i flera spel som nämns i rättegången. När EA tillfrågades om kommentarer till anklagelserna kallade EA påståendena "grundlösa" och att de "förvissade våra spel".

Se även

Vidare läsning

externa länkar