Mänsklig prestationsmodellering
Human Performance Modeling ( HPM ) är en metod för att kvantifiera mänskligt beteende, kognition och processer. Det är ett verktyg som används av forskare och praktiker av mänskliga faktorer för både analys av mänsklig funktion och för utveckling av system utformade för optimal användarupplevelse och interaktion. Det är ett komplement till andra användbarhetstestmetoder för att utvärdera effekten av gränssnittsfunktioner på operatörens prestanda.
Historia
Human Factors and Ergonomics Society (HFES) bildade Human Performance Modeling Technical Group 2004. Även om det är en ny disciplin, har utövare av mänskliga faktorer konstruerat och tillämpat modeller för mänsklig prestation sedan andra världskriget . Anmärkningsvärda tidiga exempel på mänskliga prestationsmodeller inkluderar Paul Fitts modell för riktad motorrörelse (1954), modellerna för val av reaktionstid av Hick (1952) och Hyman (1953), och Swets et al. (1964) arbete med signaldetektering. Det föreslås att den tidigaste utvecklingen inom HPM uppstod ur behovet av att kvantifiera återkoppling från mänskliga system för de militära system som var under utveckling under andra världskriget (se Manual Control Theory nedan), med fortsatt intresse för utvecklingen av dessa modeller förstärkt av den kognitiva revolutionen (se kognition & minne nedan).
Mänskliga prestationsmodeller
Mänskliga prestationsmodeller förutsäger mänskligt beteende i en uppgift, domän eller system. Dessa modeller måste dock baseras på och jämföras mot empiriska från människa i slingan för att säkerställa att förutsägelserna av mänsklig prestanda är korrekta. Eftersom mänskligt beteende till sin natur är komplext, är förenklade representationer av interaktioner avgörande för framgången för en given modell. Eftersom ingen modell kan fånga hela bredden och detaljerna av mänsklig prestation inom ett system, en domän eller ens uppgift, abstraheras detaljerna bort för att hålla modellerna hanterbara. Även om utelämnandet av detaljer är en fråga i grundläggande psykologisk forskning, är det mindre bekymmersamt i tillämpade sammanhang som de som är mest berörande för yrket mänskliga faktorer. avvägningen mellan intern och extern giltighet . Oavsett vilket är utvecklingen av en mänsklig prestationsmodell en övning inom komplexitetsvetenskap . Kommunikation och utforskning av de viktigaste variablerna som styr en given process är ofta lika viktiga som den korrekta förutsägelsen av ett resultat givet dessa variabler.
Målet med de flesta mänskliga prestationsmodeller är att fånga tillräckligt med detaljer i en viss domän för att vara användbara för utredning, design eller utvärdering; Därför är domänen för en viss modell ofta ganska begränsad. Att definiera och kommunicera domänen för en given modell är ett väsentligt inslag i praktiken - och för hela mänskliga faktorer - som en systemdisciplin. Mänskliga prestationsmodeller innehåller både explicita och implicita antaganden eller hypoteser som modellen beror på, och är typiskt matematiska - sammansatta av ekvationer eller datorsimuleringar - även om det också finns viktiga modeller som är kvalitativa till sin natur.
Individuella modeller varierar i sitt ursprung, men delar i deras tillämpning och användning för frågor i mänskliga faktorers perspektiv. Dessa kan vara modeller av produkterna av mänsklig prestation (t.ex. en modell som ger samma beslutsresultat som mänskliga operatörer), processerna som är involverade i mänsklig prestation (t.ex. en modell som simulerar de processer som används för att fatta beslut), eller båda. Generellt sett anses de tillhöra ett av tre områden: perception & uppmärksamhetsallokering, kommando & kontroll eller kognition & minne; även om modeller för andra områden som känslor, motivation och sociala/gruppprocesser fortsätter att växa fram inom disciplinen. Integrerade modeller blir också allt viktigare . Antropometriska och biomekaniska modeller är också avgörande verktyg för mänskliga faktorer i forskning och praktik, och används tillsammans med andra mänskliga prestationsmodeller, men har en nästan helt separat intellektuell historia, och är individuellt mer intresserade av statiska fysiska egenskaper än processer eller interaktioner.
Modellerna är tillämpliga inom många olika industrier och domäner inklusive militär, flyg, kärnkraft, fordon, rymdverksamhet, tillverkning, design av användarupplevelse/användargränssnitt (UX/UI) etc. och har använts för att modellera interaktioner mellan människa och system både enkelt och komplext.
Modellkategorier
Kommando och kontroll
Mänskliga prestationsmodeller för Command & Control beskriver produkterna av operatörens resultatbeteende, och är ofta också modeller av skicklighet inom interaktionerna för vissa uppgifter.
Hick-Hymans lag
Hick (1952) och Hyman (1953) noterar att svårigheten med en valreaktionstidsuppgift till stor del bestäms av situationens informationsentropi . De föreslog att informationsentropin ( H ) är en funktion av antalet alternativ ( n ) i en valuppgift, H = log 2 ( n + 1) ; och att reaktionstiden (RT) för en mänsklig operator är en linjär funktion av entropin: RT = a + bH . Detta är känt som Hick-Hymans lag för valsvarstid.
Pekande
Att peka på stationära mål såsom knappar, fönster, bilder, menyalternativ och kontroller på datorskärmar är vanligt och har ett väletablerat modelleringsverktyg för analys - Fitts' lag (Fitts, 1954) - som säger att det är dags att göra ett mål . rörelse (MT) är en linjär funktion av rörelsens svårighetsindex: MT = a + bID . Svårighetsindexet (ID) för en given rörelse är en funktion av förhållandet mellan avståndet till målet (D) och målets bredd (W): ID = log 2 ( 2D/W) - ett samband som härleds från informationsteori . Fitts lag är faktiskt ansvarig för datormusens allestädes närvarande, på grund av forskning av Card, English och Burr (1978). Utvidgningar av Fitts lag gäller också för att peka på rumsligt rörliga mål, via styrlagen, som ursprungligen upptäcktes av CG Drury 1971 och senare återupptäcktes i samband med människa-datorinteraktion av Accott & Zhai (1997, 1999).
Manuell kontrollteori
Komplexa motoriska uppgifter, som de som utförs av musiker och idrottare, är inte väl modellerade på grund av deras komplexitet. Mänskligt målspårningsbeteende är dock en komplex motorisk uppgift som är ett exempel på framgångsrik HPM.
Historien om manuell kontrollteorin är omfattande och går tillbaka till 1800-talet när det gäller kontroll av vattenklockor. Men under 1940-talet, med innovationen av servomekanismer under andra världskriget, lades omfattande forskning på kontinuerlig kontroll och stabilisering av samtida system som radarantenner, kanontorn och fartyg/flygplan via återkopplingsstyrsignaler.
Analysmetoder utvecklades som förutspådde de erforderliga kontrollsystemen som behövdes för att möjliggöra stabil, effektiv kontroll av dessa system (James, Nichols, & Phillips, 1947). Ursprungligen intresserad av temporal respons - förhållandet mellan avkänd uteffekt och motoreffekt som en funktion av tid - James et al. (1947) upptäckte att egenskaperna hos sådana system bäst kännetecknas av att förstå temporal respons efter att den hade omvandlats till ett frekvenssvar; ett förhållande mellan utsignal och ingångsamplitud och fördröjning som svar över det frekvensområde som de är känsliga för. För system som svarar linjärt på dessa ingångar kan frekvenssvarsfunktionen uttryckas i ett matematiskt uttryck som kallas en överföringsfunktion . Detta tillämpades först på maskinsystem, sedan människa-maskin-system för att maximera mänsklig prestanda. Tustin (1947), bekymrad över utformningen av pistoltorn för mänsklig kontroll, var den första som visade att ickelinjär mänsklig respons kunde approximeras av en typ av överföringsfunktion. McRuer och Krenzel (1957) syntetiserade allt arbete sedan Tustin (1947), genom att mäta och dokumentera egenskaperna hos den mänskliga överföringsfunktionen, och inledde en tid präglad av manuella kontrollmodeller för mänsklig prestation. När elektromekaniska och hydrauliska flygkontrollsystem implementerades i flygplan, började automation och elektroniska konstgjorda stabilitetssystem göra det möjligt för mänskliga piloter att kontrollera mycket känsliga system. Samma överföringsfunktioner används fortfarande idag inom kontrollteknik .
Från detta utvecklades den optimala styrmodellen (Pew & Baron, 1978) för att modellera en mänsklig operatörs förmåga att internalisera systemdynamik och minimera objektiva funktioner, såsom RMS-fel (root mean square) från målet. Den optimala styrmodellen känner också igen brus i operatörens förmåga att observera felsignalen och kvitterar brus i den mänskliga motorns utmatningssystem.
Teknologiska framsteg och efterföljande automatisering har dock minskat behovet och önskemålet av manuell styrning av system. Mänsklig kontroll av komplexa system är nu ofta av övervakande karaktär över ett givet system, och både mänskliga faktorer och HPM har skiftat från undersökningar av perceptuell-motoriska uppgifter till de kognitiva aspekterna av mänsklig prestation.
Uppmärksamhet & Perception
Signal Detection Theory (SDT)
Även om det inte är en formell del av HPM, har signaldetekteringsteori ett inflytande på metoden, särskilt inom de integrerade modellerna. SDT är nästan säkert det mest kända och mest använda modelleringsramverket i mänskliga faktorer, och är en nyckelfunktion i utbildning om mänsklig sensation och perception. I tillämpningen är den intressanta situationen en där en mänsklig operatör måste göra en binär bedömning om huruvida en signal är närvarande eller frånvarande i en brusbakgrund. Denna bedömning kan tillämpas i valfritt antal viktiga sammanhang. Förutom operatörens svar finns det två möjliga "sanna" tillstånd i världen - antingen var signalen närvarande eller så var den inte. Om operatören korrekt identifierar signalen som närvarande, kallas detta en träff (H). Om operatören svarar att en signal fanns när det inte fanns någon signal, kallas detta ett falskt larm (FA). Om operatören svarar korrekt när ingen signal finns, kallas detta för ett korrekt avslag (CR). Om en signal är närvarande och operatören inte kan identifiera den, kallas detta en miss (M).
Inom tillämpad psykologi och mänskliga faktorer tillämpas SDT på forskningsproblem inklusive igenkänning, minne, begåvningstestning och vaksamhet. Vaksamhet , med hänvisning till operatörers förmåga att upptäcka sällsynta signaler över tid, är viktig för mänskliga faktorer inom en mängd olika domäner.
Visuell sökning
Ett utvecklat område i uppmärksamhet är kontrollen av visuell uppmärksamhet - modeller som försöker svara, "var ska en individ titta härnäst?" En delmängd av detta gäller frågan om visuell sökning: Hur snabbt kan ett specificerat objekt i synfältet lokaliseras? Detta är ett vanligt ämne för mänskliga faktorer inom en mängd olika områden, med en betydande historia inom kognitiv psykologi. Denna forskning fortsätter med moderna föreställningar om framträdande och framträdande kartor . Mänskliga prestationsmodelleringstekniker inom detta område inkluderar arbetet av Melloy, Das, Gramopadhye och Duchowski (2006) angående Markov-modeller utformade för att ge uppskattningar av övre och nedre gränser för den tid det tar för en mänsklig operatör att skanna en homogen skärm. Ett annat exempel från Witus och Ellis (2003) inkluderar en beräkningsmodell avseende detektering av markfordon i komplexa bilder. Inför den olikformiga sannolikheten att ett menyalternativ väljs av en datoranvändare när vissa delmängder av objekten är markerade, härledde Fisher, Coury, Tengs och Duffy (1989) en ekvation för det optimala antalet markerade objekt för ett givet antal totalt. objekt av en given sannolikhetsfördelning. Eftersom visuell sökning är en viktig aspekt av många uppgifter, utvecklas nu visuella sökmodeller i samband med att integrera modelleringssystem. Till exempel har Fleetwood och Byrne (2006) utvecklat en ACT-R-modell för visuell sökning genom en visning av märkta ikoner - som förutsäger effekterna av ikonkvalitet och inställd storlek, inte bara på söktid utan på ögonrörelser.
Visuell provtagning
Många domäner innehåller flera skärmar och kräver mer än en enkel diskret ja/nej svarstidsmätning. En kritisk fråga för dessa situationer kan vara "Hur mycket tid kommer operatörerna att spendera på att titta på X i förhållande till Y?" eller "Vad är sannolikheten att operatören helt missar att se en kritisk händelse?" Visuell provtagning är det primära sättet att få information från världen. En tidig modell inom denna domän är Senders (1964, 1983) baserad på operatörers övervakning av flera rattar, var och en med olika förändringshastigheter. Operatörer försöker, så gott de kan, att rekonstruera den ursprungliga uppsättningen urtavlor baserat på diskret sampling. Detta bygger på den matematiska Nyquist-satsen som säger att en signal vid W Hz kan rekonstrueras genom sampling var 1/W sekund. Detta kombinerades med ett mått på informationsgenereringshastigheten för varje signal för att förutsäga den optimala samplingshastigheten och uppehållstiden för varje ratt. Mänskliga begränsningar hindrar mänsklig prestation från att matcha optimal prestation, men modellens prediktiva kraft påverkade framtida arbete inom detta område, såsom Sheridans (1970) utvidgning av modellen med hänsyn till tillgångskostnad och informationsprovvärde.
En modern konceptualisering av Wickens et al. (2008) är modellen för framträdande, ansträngning, förväntan och värde (SEEV). Den utvecklades av forskarna (Wickens et al., 2001) som en modell för skanningsbeteende som beskriver sannolikheten för att ett givet intresseområde kommer att dra till sig uppmärksamhet (AOI). SEEV-modellen beskrivs av p(A) = sS - efEF + (exEX)(vV) , där p(A) är sannolikheten för att ett visst område kommer att vara sampel, S är salienten för det området; EF representerar den ansträngning som krävs för att omfördela uppmärksamhet till en ny AOI, relaterad till avståndet från den aktuella platsen till AOI; EX ( expectancy ) är den förväntade händelsehastigheten (bandbredd), och V är värdet på informationen i den AOI, representerad som produkten av Relevans och Prioritet (R*P). De små bokstäverna är skalningskonstanter. Denna ekvation möjliggör härledning av optimala och normativa modeller för hur en operatör ska bete sig, och för att karakterisera hur de beter sig. Wickens et al., (2008) genererade också en version av modellen som inte kräver absolut uppskattning av de fria parametrarna för miljön - bara den jämförande betydelsen av andra regioner jämfört med region av intresse.
Visuell diskriminering
Modeller för visuell diskriminering av enskilda bokstäver inkluderar de av Gibson (1969), Briggs och Hocevar (1975) och McClelland och Rumelhart (1981), varav den sista är en del av en större modell för ordigenkänning som är känd för sin förklaring av ordet överlägsenhetseffekt . Dessa modeller noteras för att vara mycket detaljerade och gör kvantitativa förutsägelser om små effekter av specifika bokstäver.
Djupuppfattning
Ett kvalitativt HPM-exempel inkluderar Cutting och Vishton (1995) modell för djupuppfattning, som indikerar att ledtrådar till djupuppfattning är mer effektiva på olika avstånd.
Arbetsbelastning
Även om en exakt definition eller metod för att mäta konstruktionen av arbetsbelastning diskuteras av mänskliga faktorer, är en kritisk del av uppfattningen att mänskliga operatörer har vissa kapacitetsbegränsningar och att sådana begränsningar endast kan överskridas med risk för försämrad prestanda. För fysisk arbetsbelastning kan det förstås att det finns ett maxbelopp som en person ska uppmanas att lyfta upprepade gånger, till exempel. Men begreppet arbetsbelastning blir mer kontroversiellt när kapaciteten att överskridas gäller uppmärksamhet - vilka är gränserna för mänsklig uppmärksamhet, och vad exakt menas med uppmärksamhet? Mänsklig prestationsmodellering ger värdefulla insikter om detta område.
Byrne och Pew (2009) betraktar ett exempel på en grundläggande arbetsbelastningsfråga: "I vilken utsträckning stör uppgift A och B?" Dessa forskare anger detta som grunden för psykologisk refraktär period ( PRP). Deltagarna utför två val reaktionstid uppgifter, och de två uppgifterna kommer att störa till en viss grad - särskilt när deltagaren måste reagera på stimuli för de två uppgifterna när de är nära varandra i tid - men graden av interferens är vanligtvis mindre än total tid det tar för någon av uppgifterna. Flaskhalsmodellen för svarsval (Pashler, 1994) modellerar denna situation väl - genom att varje uppgift har tre komponenter: perception, svarsval (kognition) och motoreffekt. Den uppmärksamhetsmässiga begränsningen - och därmed platsen för arbetsbelastning - är att svarsval endast kan göras för en uppgift åt gången. Modellen gör många korrekta förutsägelser, och de som den inte kan redogöra för behandlas av kognitiva arkitekturer (Byrne & Anderson, 2001; Meyer & Kieras, 1997). I enkla situationer med dubbla uppgifter kvantifieras uppmärksamhet och arbetsbelastning och meningsfulla förutsägelser möjliggörs.
Horrey och Wickens (2003) funderar på frågorna: I vilken utsträckning kommer en sekundär uppgift att störa körprestandan, och beror det på typen av körning och på det gränssnitt som presenteras i den andra uppgiften? Genom att använda en modell baserad på teori om flera resurser (Wickens, 2002, 2008; Navon & Gopher, 1979), som föreslår att det finns flera loki för interferens med flera uppgifter (bearbetningsstadierna, bearbetningskoderna och modaliteter ), forskare föreslår att interferens mellan uppgifter ökar proportionellt i den utsträckning som de två uppgifterna använder samma resurser inom en given dimension: Visuell presentation av en återläsningsuppgift bör störa körningen mer än den auditiva presentationen, eftersom själva körningen ställer starkare krav på den visuella modaliteten än på den auditiva.
Även om multipelresursteori är den mest kända arbetsbelastningsmodellen i mänskliga faktorer, representeras den ofta kvalitativt. De detaljerade beräkningsimplementeringarna är bättre alternativ för tillämpning i HPM-metoder, för att inkludera Horrey och Wickens (2003)-modellen, som är tillräckligt generell för att kunna tillämpas i många domäner. Integrerade tillvägagångssätt, såsom uppgiftsnätverksmodellering, blir också mer utbredda i litteraturen.
Numerisk typning är en viktig perceptuell-motorisk uppgift vars prestanda kan variera med olika pacing, fingerstrategier och brådskande situationer. Queuing nätverksmodell mänsklig processor (QN-MHP), en beräkningsarkitektur, gör att prestanda för perceptuell-motoriska uppgifter kan modelleras matematiskt. Den aktuella studien förbättrade QN-MHP med en top-down kontrollmekanism, en close-loop rörelsekontroll och en fingerrelaterad motorkontrollmekanism för att ta hänsyn till uppgiftsinterferens, effektmålsreduktion respektive kraftunderskott. Modellen inkorporerade också neuromotorisk brusteori för att kvantifiera endpointvariabilitet vid typning. Modellens förutsägelser om skrivhastighet och precision validerades med Lin och Wus (2011) experimentella resultat. De resulterande root-meansquared felen var 3,68 % med en korrelation på 95,55 % för svarstid och 35,10 % med en korrelation på 96,52 % för skrivnoggrannhet. Modellen kan användas för att ge optimala talhastigheter för röstsyntes och tangentbordsdesigner i olika numeriska skrivningssituationer.
Den psykologiska refraktärperioden (PRP) är en grundläggande men viktig form av informationsbehandling med dubbla uppgifter. Befintliga seriella eller parallella bearbetningsmodeller av PRP har framgångsrikt svarat för en mängd olika PRP-fenomen; var och en möter dock minst ett experimentellt motexempel till sina förutsägelser eller modelleringsmekanismer. Den här artikeln beskriver en könätverksbaserad matematisk modell av PRP som kan modellera olika experimentella fynd i PRP med slutna formekvationer inklusive alla de stora motexemplen som de befintliga modellerna stöter på med färre eller lika många fria parametrar. Detta modelleringsarbete erbjuder också en alternativ teoretisk redogörelse för PRP och visar vikten av de teoretiska begreppen "köning" och "hybridkognitiva nätverk" för att förstå kognitiv arkitektur och multitask-prestanda.
Kognition & Minne
Paradigmskiftet inom psykologi från behaviorism till studiet av kognition hade en enorm inverkan på området Human Performance Modeling. När det gäller minne och kognition, visade Newells och Simons forskning angående artificiell intelligens och den allmänna problemlösaren (GPS; Newell & Simon, 1963), att beräkningsmodeller effektivt kunde fånga grundläggande mänskligt kognitivt beteende. Newell och Simon var inte bara bekymrade över mängden information - säg att räkna antalet bitar det mänskliga kognitiva systemet måste ta emot från det perceptuella systemet - utan snarare de faktiska beräkningarna som utförs. De var kritiskt involverade i den tidiga framgången att jämföra kognition med beräkning, och beräkningens förmåga att simulera kritiska aspekter av kognition - vilket ledde till skapandet av underdisciplinen artificiell intelligens inom datavetenskap, och förändrade hur kognition sågs i den psykologiska gemenskapen. Även om kognitiva processer inte bokstavligen vänder bitar på samma sätt som diskreta elektroniska kretsar gör, kunde pionjärer visa att vilken universell beräkningsmaskin som helst kunde simulera de processer som används i en annan, utan fysisk motsvarighet (Phylyshyn, 1989; Turing, 1936). Den kognitiva revolutionen gjorde det möjligt att närma sig all kognition genom modellering, och dessa modeller spänner nu över ett brett spektrum av kognitiva domäner - från enkla listminne, till förståelse av kommunikation, till problemlösning och beslutsfattande, till bilder och mer.
Ett populärt exempel är Atkinson-Shiffrin (1968) "modala" minnesmodell . Se också kognitiva modeller för information som inte ingår här.
Rutinmässig kognitiv skicklighet
Ett område av minne och kognition gäller modellering av rutinmässiga kognitiva färdigheter; när en operatör har rätt kunskap om hur man utför en uppgift och helt enkelt behöver utföra den kunskapen. Detta är allmänt tillämpligt, eftersom många operatörer tränas tillräckligt för att deras rutiner ska bli rutin. GOMS-familjen (mål, operatörer, metoder och urvalsregler) av mänskliga prestationsmodeller populariserade och väldefinierade av forskare inom området (Card et al., 1983; John & Kieras, 1996a, 1996b) tillämpades ursprungligen på modellanvändare av datorgränssnitt, men har sedan dess utvidgats till andra områden. De är användbara HPM-verktyg, lämpliga för en mängd olika problem och analysstorlekar, men är begränsade när det gäller att analysera användarfel (se Wood & Kieras, 2002, för ett försök att utvidga GOMS till hanteringsfel).
Den enklaste formen av en GOMS-modell är en tangenttryckningsnivåmodell (KLM) - där alla fysiska åtgärder är listade (t.ex. tangenttryckningar, musklick), även kallade operationer, som en användare måste utföra för att utföra en given uppgift. Mentala operationer (t.ex. hitta ett föremål på skärmen) förstärker detta med en enkel uppsättning regler. Varje operation har en tid associerad med sig (som 280 ms för en tangenttryckning), och den totala tiden för uppgiften uppskattas genom att lägga samman operationstider. Effektiviteten av två procedurer kan sedan jämföras med deras respekterade uppskattade utförandetider. Även om denna form av modell är mycket ungefärlig (många antaganden tas fritt), är det en form av modell som fortfarande används idag (t.ex. informationssystem i fordon och mobiltelefoner).
Det finns detaljerade versioner av GOMS, inklusive:
-- CPM-GOMS : "Kognitiv, perceptuell, motorisk"" och "kritisk vägmetod" (John & Kieras, 1996a, 1996b) - försök att bryta ner prestanda i primitiva CPM-enheter som varar tio till hundratals millisekunder (varaktighet för många operationer) i CPM-GOMS-modeller kommer från publicerad litteratur, särskilt Card et al., 1983).
-- GOMSL / NGOMSL : GOMS-språk eller naturligt GOMS-språk, som fokuserar på den hierarkiska nedbrytningen av mål, men med en analys inklusive metoder - procedurer som människor använder för att uppnå dessa mål. Många generiska mentala operationer i KLM ersätts med detaljerade beskrivningar av den kognitiva aktiviteten som involverar organisering av människors procedurkunskaper i metoder. En detaljerad GOMSL-analys gör det möjligt att förutsäga inte bara exekveringstiden, utan också den tid det tar att lära sig procedurerna, och mängden överföring som kan förväntas baserat på redan kända procedurer (Gong och Kieras, 1994). Dessa modeller är inte bara användbara för att informera om omkonstruktioner av användargränssnitt, utan också kvantitativt förutsäga exekvering och inlärningstid för flera uppgifter.
Beslutsfattande
En annan kritisk kognitiv aktivitet av intresse för mänskliga faktorer är bedömning och beslutsfattande. Dessa aktiviteter står i skarp kontrast till rutinmässiga kognitiva färdigheter, för vilka procedurerna är kända i förväg, eftersom många situationer kräver att operatörer gör bedömningar under osäkert - för att producera en kvalitetsbedömning, eller kanske välja bland många möjliga alternativ. Även om många discipliner inklusive matematik och ekonomi ger betydande bidrag till detta studieområde, modellerar majoriteten av dessa modeller inte mänskligt beteende utan modellerar snarare optimalt beteende, såsom subjektiv förväntad nytta teori (Savage, 1954; von Neumann & Morgenstern, 1944 ) . Även om modeller för optimalt beteende är viktiga och användbara, överväger de inte en baslinje för jämförelser för mänsklig prestation - även om mycket forskning om mänskligt beslutsfattande på detta område jämför mänsklig prestation med matematiskt optimala formuleringar. Exempel på detta inkluderar Kahneman och Tverskys (1979) prospektteori och Tverskys (1972) modell för eliminering genom aspekter . Mindre formella tillvägagångssätt inkluderar Tversky och Kahnemans avgörande arbete om heuristik och fördomar, Gigerenzers arbete med "snabba och sparsamma" genvägar (Gigerenzer, Todd, & ABC Research Group, 2000) och de beskrivande modellerna av Paune, Bettman och Johnson (1993) om adaptiva strategier.
Ibland är optimal prestanda osäker, ett kraftfullt och populärt exempel är linsmodellen ( Brunswick, 1952; Cooksey, 1996; Hammond, 1955), som handlar om policyinfångning , kognitiv kontroll och cue-användning , och som har använts inom flyget (Bisantz) & Pritchett, 2003), ledning och kontroll (Bisantz et al., 2000); att undersöka mänskligt omdöme i anställningsintervjuer (Doherty, Ebert, & Callender, 1986), finansiell analys (Ebert & Kruse, 1978), läkares diagnoser (LaDuca, Engel, & Chovan, 1988), lärarbetyg (Carkenord & Stephens, 1944) ), och många andra. Även om modellen har begränsningar [beskrivs i Byrne & Pew (2009)], är den mycket kraftfull och förblir underutnyttjad i yrket mänskliga faktorer.
Situationsmedvetenhet (SA)
Modeller av SA sträcker sig från beskrivande (Endsley, 1995) till beräkningsmässiga (Shively et al., 1997). Den mest användbara modellen i HPM är den av McCarley et al. (2002) känd som A-SA-modellen (Attention/Situation Awareness). Den innehåller två halvoberoende komponenter: en perception/uppmärksamhetsmodul och en kognitiv SA-uppdaterad modul. P/A-modellen för denna A-SA-modell är baserad på teorin om visuell uppmärksamhet. (Bundesen, 1990) (se McCarley et al., 2002).
Integrerade modeller
Många av dessa beskrivna modeller är mycket begränsade i sin tillämpning. Även om många förlängningar av SDT har föreslagits för att täcka en mängd andra bedömningsdomäner (se TD Wickens, 2002, för exempel), slog de flesta av dessa aldrig upp och SDT förblir begränsade till binära situationer. Den snäva räckvidden av dessa modeller är dock inte begränsad till mänskliga faktorer - Newtons rörelselagar har liten prediktiv kraft när det gäller till exempel elektromagnetism. Detta är dock frustrerande för yrkesverksamma inom mänskliga faktorer, eftersom verklig mänsklig prestation in vivo bygger på ett brett spektrum av mänskliga förmågor. Som Byrne & Pew (2009) beskriver, "inom loppet av en minut kan en pilot ganska enkelt göra en visuell sökning, sikta på och trycka på en knapp, utföra en rutinprocedur, göra en sannolikhetsbedömning med flera led" och göra bara om allt annat som beskrivs av grundläggande mänskliga prestationsmodeller. En grundläggande genomgång av HPM av National Academies (Elkind, Card, Hochberg, & Huey, 1990) beskrev integration som den stora olösta utmaningen inom HPM. Det här problemet återstår att lösa, men det har gjorts ansträngningar för att integrera och förena flera modeller och bygga system som sträcker sig över olika domäner. I mänskliga faktorer är de två primära modelleringsmetoderna som åstadkommer detta och har vunnit popularitet uppgiftsnätverksmodellering och kognitiva arkitekturer .
Uppgift nätverksmodellering
Termen nätverksmodell avser en modelleringsprocedur som involverar Monte Carlo- simulering snarare än till en specifik modell. Även om modelleringsramverket är ateoretiskt, är kvaliteten på modellerna som byggs med den bara av lika hög kvalitet som de teorier och data som används för att skapa dem.
När en modellerare bygger en nätverksmodell av en uppgift är det första steget att konstruera ett flödesschema som delar upp uppgiften i diskreta deluppgifter - varje deluppgift som en nod, de seriella och parallella vägarna som förbinder dem, och grindlogiken som styr det sekventiella flödet genom det resulterande nätverket. Vid modellering av mänskliga systemprestanda representerar vissa noder mänskliga beslutsprocesser och.eller mänsklig uppgiftsexekvering, vissa representerar systemexekveringsunderuppgifter och vissa aggregerade människa/maskinprestanda till en enda nod. Varje nod representeras av en statistiskt specificerad färdigställandetidsfördelning och en sannolikhet för färdigställande. När alla dessa specifikationer är programmerade i en dator, tränas nätverket upprepade gånger på Monte Carlo-sätt för att bygga upp distributioner av de samlade prestandamåtten som är av intresse för analytikern. Konsten i detta ligger i modellerarens val av rätt abstraktionsnivå för att representera noder och vägar och att uppskatta de statistiskt definierade parametrarna för varje nod. Ibland genomförs human-in-the-loop-simuleringar för att ge stöd och validering för uppskattningarna. Detaljer om detta, relaterade och alternativa tillvägagångssätt kan hittas i Laughery, Lebiere och Archer (2006) och i Schwieckerts arbete och kollegor, såsom Schweickert, Fisher och Proctor (2003).
Historiskt sett härrör Task Network Modeling från köteori och modellering av teknisk tillförlitlighet och kvalitetskontroll. Art Siegel, en psykolog, som först utvidgade tillförlitlighetsmetoder till en Monte Carlo-simuleringsmodell av människa-maskinprestanda (Siegel & Wolf, 1969). I början av 1970-talet sponsrade det amerikanska flygvapnet utvecklingen av SAINT (Systems Analysis of Integrated Networks of Tasks), ett högnivåprogrammeringsspråk speciellt utformat för att stödja programmeringen av Monte Carlo-simuleringar av uppgiftsnätverk mellan människa och maskin (Wortman, Pritsker Seum, Seifert & Chubb, 1974). En modern version av denna programvara är Micro Saint Sharp (Archer, Headley, & Allender, 2003). Denna familj av mjukvara skapade ett träd av specialprogram med varierande grad av gemensamhet och specificitet med Micro Saint. Den mest framträdande av dessa är IMPRINT -serien (Improved Performance Research Integration Tool) sponsrad av den amerikanska armén (och baserad på MANPRINT) som tillhandahåller modelleringsmallar speciellt anpassade för specifika mänskliga prestationsmodelleringsapplikationer (Archer et al., 2003). Två arbetsbelastningsspecifika program är W/INDEX (North & Riley, 1989) och WinCrew (Lockett, 1997).
Nätverksmetoden för modellering med dessa program är populär på grund av dess tekniska tillgänglighet för individer med allmän kunskap om datorsimuleringstekniker och analys av mänsklig prestanda. Flödesscheman som är resultatet av uppgiftsanalys leder naturligt till formella nätverksmodeller. Modellerna kan utvecklas för att tjäna specifika syften - från simulering av en individ som använder ett människa-dator-gränssnitt till att analysera potentiellt trafikflöde i en akutcentral på sjukhus. Deras svaghet är den stora svårigheten som krävs för att härleda prestationstider och framgångsannolikheter från tidigare data eller från teorier eller första principer. Dessa data ger modellens principinnehåll.
Kognitiva arkitekturer
Kognitiva arkitekturer är breda teorier om mänsklig kognition baserade på ett brett urval av mänsklig empirisk data och implementeras generellt som datorsimuleringar. De är förkroppsligandet av en vetenskaplig hypotes om de aspekter av mänsklig kognition som är relativt konstanta över tid och oberoende av uppgift (Gray, Young, & Kirschenbaum, 1997; Ritter & young, 2001). Kognitiva arkitekturer är ett försök att teoretiskt förena bortkopplade empiriska fenomen i form av datorsimuleringsmodeller. Även om teorin är otillräcklig för tillämpningen av mänskliga faktorer, har kognitiva arkitekturer sedan 1990-talet också inkluderat mekanismer för sensation, perception och handling. Två tidiga exempel på detta inkluderar Executive Process Interactive Control-modellen (EPIC; Kieras, Wood, & Meyer, 1995; Meyer & Kieras, 1997) och ACT-R (Byrne & Anderson, 1998).
En modell av en uppgift i en kognitiv arkitektur, allmänt kallad en kognitiv modell, består av både arkitekturen och kunskapen för att utföra uppgiften. Denna kunskap förvärvas genom mänskliga faktorers metoder inklusive uppgiftsanalyser av den verksamhet som modelleras. Kognitiva arkitekturer är också kopplade till en komplex simulering av miljön där uppgiften ska utföras - ibland interagerar arkitekturen direkt med den faktiska mjukvaran människor använder för att utföra uppgiften. Kognitiva arkitekturer producerar inte bara en förutsägelse om prestanda, utan producerar också faktiska prestandadata - kan producera tidsstämplade sekvenser av åtgärder som kan jämföras med verklig mänsklig prestation på en uppgift.
Exempel på kognitiva arkitekturer inkluderar EPIC-systemet (Hornof & Kieras, 1997, 1999), CPM-GOMS (Kieras, Wood, & Meyer, 1997), Queuing Network-Model Human Processor (Wu & Liu, 2007, 2008), ACT -R (Anderson, 2007; Anderson & Lebiere, 1998) och QN-ACTR (Cao & Liu, 2013).
Queuing Network-Model Human Processor-modellen användes för att förutsäga hur förare uppfattar körhastigheten och den angivna hastighetsgränsen, gör val av hastighet och utför den beslutade körhastigheten. Modellen var känslig (genomsnittlig d' var 2,1) och exakt (genomsnittlig testnoggrannhet var över 86%) för att förutsäga majoriteten av oavsiktlig fortkörning
ACT-R har använts för att modellera en mängd olika fenomen. Den består av flera moduler, var och en modellerar olika aspekter av det mänskliga systemet. Moduler är associerade med specifika hjärnregioner, och ACT-R har således framgångsrikt förutspått neural aktivitet i delar av dessa regioner. Varje modell representerar i huvudsak en teori om hur den delen av det övergripande systemet fungerar - härledd från forskningslitteratur inom området. Till exempel är det deklarativa minnessystemet i ACT-R baserat på serier av ekvationer som tar hänsyn till frekvens och aktualitet och som inkluderar Bayseanska föreställningar om behovsannolikhet givet sammanhang, inklusive ekvationer för inlärning såväl som prestanda. Vissa moduler är av högre kvalitet än andra , dock - den manuella modulen innehåller Fitts lag och andra enkla driftsprinciper, men är inte lika detaljerad som den optimala styrteorimodellen (ännu). Tanken är dock att var och en av dessa moduler kräver stark empirisk validering. Detta är både en fördel och en begränsning för ACT-R, eftersom det fortfarande finns mycket arbete att göra i integrationen av kognitiva, perceptuella och motoriska komponenter, men denna process är lovande (Byrne, 2007; Foyle och Hooey, 2008 Pew & Mavor, 1998).
Gruppbeteende
Team/Crew Performance Modeling
GOMS har använts för att modellera både komplexa teamuppgifter (Kieras & Santoro, 2004) och gruppbeslutsfattande (Sorkin, Hays, & West, 2001).
Modelleringsmetoder
Datorsimuleringsmodeller/tillvägagångssätt
Exempel: IMPRINT (Improved Performance Research Integration Tool)
Matematiska modeller/tillvägagångssätt
Exempel: Kognitiv modell
Jämföra HPM-modeller
För att jämföra olika HPM-modeller är ett av sätten att beräkna deras AIC (Akaike informationskriteriet) och överväga korsvalideringskriteriet.
Fördelar
Många fördelar kan vinnas av att använda modelleringstekniker inom området för mänsklig prestation .
Specificitet
En ansenlig majoritet av förklaringarna inom psykologi är inte bara kvalitativa utan också vaga. Begrepp som "uppmärksamhet", "bearbetningskapacitet", "arbetsbelastning" och "situationsmedvetenhet" (SA), både generella och specifika för mänskliga faktorer, är ofta svåra att kvantifiera inom tillämpade domäner. Forskare skiljer sig åt i sina definitioner av sådana termer, vilket gör det också svårt att specificera data för varje term. Formella modeller kräver däremot vanligtvis explicit specifikation av teoretiska termer. Specificitet kräver att förklaringarna är internt sammanhängande; medan verbala teorier ofta är så flexibla att de misslyckas med att förbli konsekventa, vilket gör att motsägelsefulla förutsägelser kan härledas från deras användning. Alla modeller är dock inte kvantitativa till sin natur och därför ger inte alla fördelen av specificitet i samma grad.
Objektivitet
Formella modeller är i allmänhet modelloberoende. Även om stor skicklighet är involverad i att konstruera en specifik modell, när den väl är konstruerad kan vem som helst med lämplig kunskap köra den eller lösa den, och modellen producerar samma förutsägelser oavsett vem som kör eller löser modellen. Förutsägelser är inte längre kopplade till fördomar eller ensam intuition hos en enda expert utan snarare till en specifikation som kan offentliggöras.
Kvantitativitet
Många mänskliga prestationsmodeller gör kvantitativa förutsägelser, som är kritiska i tillämpade situationer. Rent empiriska metoder analyserade med hypotestestningstekniker, som standard i de flesta psykologiska experiment, fokuserar på att ge svar på vaga frågor som "Är A och B olika?" och sedan "Är denna skillnad statistiskt signifikant?"; medan formella modeller ofta ger användbar kvantitativ information som "A är x% långsammare än B."
Klarhet
Mänskliga prestationsmodeller ger klarhet, genom att modellen ger en förklaring till observerade skillnader; sådana förklaringar tillhandahålls i allmänhet inte med strikt empiriska metoder.
frågor
Missuppfattningar
Många mänskliga prestationsmodeller delar nyckelfunktioner med artificiell intelligens (AI) metoder och system. AI-forskningens funktion är att producera system som uppvisar intelligent beteende, i allmänhet utan hänsyn till i vilken grad den intelligensen liknar eller förutsäger mänsklig prestation, men skillnaden mellan AI-metoder och HPM-metoder är ibland oklar. Till exempel, Bayesianska klassificerare som används för att filtrera spam-e-postmeddelanden uppskattar mänsklig klassificeringsprestanda (klassificerar spam-e-postmeddelanden som spam, och icke-spam-e-postmeddelanden som import) och är därför mycket intelligenssystem, men misslyckas med att förlita sig på tolkningen av själva meddelandenas semantik; istället förlitar sig på statistiska metoder. Bayesiansk analys kan dock också vara avgörande för mänskliga prestationsmodeller.
Användbarhet
Modeller kan fokusera mer på processerna involverade i mänsklig prestation snarare än produkterna av mänsklig prestation, vilket begränsar deras användbarhet i mänskliga faktorers praktik.
Abstraktion
Den abstraktion som krävs för förståeliga modeller konkurrerar med noggrannhet. Medan allmänhet, enkelhet och förståelighet är viktiga för tillämpningen av modeller i mänskliga faktorers praktik, är många värdefulla mänskliga prestationsmodeller otillgängliga för dem utan examen eller postdoktoral utbildning. Till exempel, medan Fitts lag är okomplicerad även för studenter, kräver linsmodellen en intim förståelse av multipel regression, och konstruktionen av en modell av ACT-R-typ kräver omfattande programmeringskunskaper och många års erfarenhet. Även om framgångarna för komplexa modeller är betydande, måste en utövare av HPM vara medveten om avvägningarna mellan noggrannhet och användbarhet.
Gratis parametrar
Som är fallet i de flesta modellbaserade vetenskaper kräver fria parametrar som frodas inom modeller för mänsklig prestation också empiriska data a priori. Det kan finnas begränsningar när det gäller att samla in den empiriska data som krävs för att köra en given modell, vilket kan begränsa tillämpningen av den givna modellen.
Godkännande
Validering av mänskliga prestationsmodeller är av största vikt för vetenskapen om HPM.
Vanligtvis använder forskare R square och Root Mean Square (RMS) mellan experimentdata och modellens förutsägelse.
Dessutom, medan validitet kan bedömas med jämförelse mellan mänskliga data och modellens utdata, är fria parametrar flexibla för att felaktigt anpassa data.
Vanliga villkor
- Free Parameter : Parametrarna för en modell vars värden uppskattas från data som ska modelleras för att maximalt anpassa modellens förutsägelse.
- Bestämningskoefficient ( R-kvadrat ) : En linje eller kurva anger hur väl data passar en statistisk modell.
- Rotmedelkvadrat ( RMS ) : Ett statistiskt mått som definieras som kvadratroten av det aritmetiska medelvärdet av kvadraterna av en uppsättning tal.
Se även
Human Factors & Ergonomics Society