Problemen en procedures die betrokken zijn bij het selecteren van een baan

Alvorens verder te gaan met een onderzoek van de basisselectiemodellen die beschikbaar zijn voor de psycholoog, is het noodzakelijk om ons bezig te houden met een korte blik op het algemene meervoudige voorspellingsmodel. Dit model wordt meestal het meervoudige regressiemodel genoemd. In het algemene voorspellingsparadigma ontwikkelen we een regressielijn die past in de set gegevenspunten die wordt gedefinieerd door scores van mensen op een voorspeller (de x-as of abscis) en op het criterium (de y-as of ordinaat).

Figuur 3.1 toont een dergelijke situatie. De regressielijn in figuur 3.1 is een rechte lijn en is zo geplaatst dat de som van de 'gekwadrateerde afstanden van elk punt tot de lijn (parallel aan de y-as) zo klein mogelijk is. We gebruiken een best passende rechte lijn omdat we een lineaire relatie tussen x en y veronderstelden.

De basisformule voor een rechte lijn is

y = a + bx

Waar y = voorspeld score op criterium

a = een constante die aangeeft op welk punt de regressielijn de y-as passeert

b = helling van de lijn, voorgesteld door Δy / Δx, of de verandering in y waargenomen voor een overeenkomstige verandering in x

x = waargenomen score op voorspeller

Het basisregressielijnmodel verschijnt dus zoals weergegeven in Afbeelding 3.2.

Merk op dat in Figuur 3.2 de regressielijn de y-as kruist bij een waarde van 2. Dus a = 2. Merk ook op dat voor elke toename van 2 eenheden in x er een overeenkomstige toename van 1 eenheid is in y. Dus Δy / Δx = 1/2 = 0, 5 = b. De regressievergelijking wordt dan

y = 2 + 0, 5x

Gegeven elke x-waarde hebben we een regressielijn die ons in staat stelt om een ​​score te voorspellen die daarmee overeenkomt. Als x bijvoorbeeld 8 waren, dan

y = 2 + 0, 5 (8)

= 2 + 4

= 6

Samengevat: in het geval van één voorspeller berekent men een best passende rechte lijn naar de waargenomen punten, waarbij de term "best passend" betekent dat de som van de gekwadrateerde afwijkingen van de waargenomen waarden rond de lijn een minimum zal zijn.

De formules die nodig zijn om de constanten a en b te berekenen die deze best passende lijn definiëren, worden "least-squares" -formules genoemd en zijn als volgt:

De formule voor b is een ratio van de covariantie tussen de voorspeller en het criterium en de totale variatie in de voorspeller. Wanneer de criteriumvariantie en voorspellervariantie gelijk zijn, is b = r of is de helling van de regressierechte gelijk aan de correlatiecoëfficiënt.

Twee voorspellers:

Het is logisch om aan te nemen dat als voorspeller X 1 kan bijdragen aan de succesvolle voorspelling van criteriumscores, en als voorspeller X 2 ook kan bijdragen aan de succesvolle voorspelling van criteriumscores, het gebruik van beide voorspellers samen een betere algemene voorspelling mogelijk moet maken dan voorspeller afzonderlijk. De mate waarin de twee voorspellers (indien gecombineerd) de voorspelbaarheid verbeteren, hangt echter af van verschillende factoren, waarvan de belangrijkste de correlatie tussen de twee voorspellers zelf is.

Neem bijvoorbeeld de situatie waarin twee voorspellers elk in grote mate correleren met een criterium maar niet met elkaar correleren, als volgt:

Het is duidelijk dat een groot deel van de aanvullende criteriumvariantie kan worden verklaard met behulp van voorspeller 2 samen met voorspeller 1. De gecombineerde relatie tussen twee of meer voorspellers en een criterium wordt een meervoudige correlatie genoemd en heeft het symbool R. Zoals het geval was met r 2, de waarde van R "vertegenwoordigt de totale hoeveelheid criteriumvariantie die kan worden verklaard door verschillende voorspellers te gebruiken. Wanneer de voorspellers 1 en 2 niet aan elkaar zijn gecorreleerd, kan worden aangetoond dat de gekwadrateerde meervoudige correlatiecoëfficiënt een additieve functie van de afzonderlijke gekwadrateerde correlatiecoëfficiënten is, of

R2 c . 12 = r 2 1c + r 2 2c (3.1)

Wanneer dus (de correlatie tussen voorspellers) nul is, is de vierkante veelvoudige geldigheid de som van de gekwadrateerde individuele validiteiten.

Wanneer twee voorspellers met elkaar gecorreleerd zijn, worden dingen iets complexer. Beschouw een situatie (zoals in het volgende diagram) waarin elke voorspeller een aanzienlijke individuele validiteit heeft, maar waarbij r12 ook vrij groot is.

Vanwege de onderlinge correlatie tussen deze voorspellers, laat het diagram zien dat de mate van overlapping tussen voorspeller 2 en het criterium in twee delen kan worden verdeeld: dat gebied dat uniek is voor voorspeller 2 en dat gebied dat wordt gedeeld met voorspeller 1. Het gebruik van een tweede voorspeller in deze situatie stelt ons in staat om meer criteriumvariantie te verklaren dan zou kunnen worden gedaan door alleen voorspelling 1 te gebruiken, maar alle criteriumvariantie voorspeld door 2 is geen nieuwe variantie. Een algemene regel kan daarom worden gesteld met betrekking tot meerdere voorspellers.

Als alle andere dingen gelijk zijn, hoe hoger de correlatie tussen voorspellers, hoe minder de algemene voorspelling zal worden verbeterd door beide voorspellers samen te gebruiken. Het extreme geval zou natuurlijk de situatie zijn waarbij de voorspellers perfect gecorreleerd waren en we geen extra criteriumvariantie zouden hebben door toevoeging van voorspeller 2 aan onze selectiebatterij.

In het geval van twee voorspellers die met elkaar gecorreleerd zijn, kunnen we R2 uitdrukken als een functie van de afzonderlijke validiteiten en de grootte van de onderlinge correlatie tussen voorspellers met de formule 2

R2 c . 12 = r 2 1c + r 2 2c - 2r 12 r 1c r 2c / 1 - r 2 12 (3.2)

merk op dat als r 12 = 0, formule 3.2 vermindert tot

R2 c . 12 = r 2 1c + r 2 2c

wat formule 3.1 is.

Een meer expliciete illustratie van de invloed van voorspellende intercorrelatie op de grootte van de meerdere correlatiecoëfficiënten kan worden verkregen uit Tabel 3.1, waar voorbeelden van R- en R2-waarden worden gegeven voor paren voorspellers met een geldigheid van 0, 30, 0, 50 en 0, 70. onder hypothetische omstandigheden van 0, 00, 0, 30 en 0, 60 onderlinge correlatie. Figuur 3.3 toont de algemene trend aan de hand van de gegevens in Tabel 3.1. De moraal voor de psycholoog is overduidelijk - gebruik geen voorspellers die geneigd zijn om sterk met elkaar in verband te staan.

Voorspellingsvergelijkingen:

De voorspellingsvergelijking in een situatie met twee voorspellers is een uitbreiding van het model met één voorspeller. De algemene vorm van de vergelijking is

y = a + b 1 x 1 + b 2 x 2 (3.3)

Dit is de vergelijking voor een vlak in plaats van een rechte lijn. Voor de lezer die bekend is met de geometrie, geeft figuur 3.4 een driedimensionale tekening van de relaties tussen de variabelen x 1, x 2 en y die overeenkomen met vergelijking 3.3. Er zijn formules beschikbaar waarmee de constanten a, b kunnen worden berekend en die het best passende regressievlak met zich meebrengen. Nadat deze constanten zijn vastgesteld, kan de resulterende vergelijking vervolgens worden gebruikt om criteriumvoorspellingsvoorspellingen van nieuwe sollicitanten te maken, gezien hun scores op de afzonderlijke voorspellers.

Veronderstel dat er gegevens beschikbaar zijn over 100 mannen die voor een baan X zijn aangenomen gedurende een bepaalde maand, inclusief scores in twee tests en criteriumgegevens na een periode van zes maanden. Deze gegevens kunnen worden geanalyseerd om de waarden voor a, b 1 en bi te bepalen die de relaties tussen de variabelen het best beschrijven.

Stel dat de volgende vergelijking het eindresultaat was:

y = 2 + 0.5x 1 + 0.9x 2 (3.4)

Deze vergelijking zegt dat de meest waarschijnlijke criteriumscore voor elke nieuwe aanwerving gelijk zal zijn aan de helft van zijn score op test 1 plus negen tiende van zijn score op test 2 plus twee. Dus als een nieuwe kandidaat 20 scoort op test 1 en 30 in test 2, zou zijn voorspelde criteriumprestatie aan het einde van zes maanden na het moment van huur worden

= 2 + 0, 5 (20) + 0, 9 (30)

= 2 -t-10 + 27

= 39

De uitbreiding van het model met twee voorspellers tot een k-predictormodel, waarbij k een groot aantal potentiële voorboden is van jobsucces, is conceptueel niet zo moeilijk. Ons model breidt zich uit naar het formulier

y = a + b 1 x 1 + b 2 x 2 + b 3 x 3 + ... + b k x k (3.5)

De berekeningsprocedures voor het oplossen van de kleinste kwadratenwaarden van alle constanten in een dergelijke vergelijking worden echter tamelijk ingewikkeld, tenzij er computerfaciliteiten beschikbaar zijn. De lezer wordt ook gewaarschuwd om te onthouden dat in de voorgaande discussie de impliciete veronderstelling van een lineaire wereld bestond, dat wil zeggen dat alle relaties tussen paren variabelen lineair zijn. Het is mogelijk om het meervoudige regressiemodel te wijzigen om deze veronderstelling te vermijden, maar dat valt buiten het bestek van dit boek.

moderators:

Een van de belangrijkste concepten in de selectie- en plaatsingstheorie is het concept van de moderatorvariabele. Soms aangeduid als een populatiecontrolevariabele, kan een moderatorvariabele worden bekeken als elke variabele die, indien systematisch gevarieerd, een effect heeft op de grootte van de relatie tussen twee of meer andere variabelen.

Misschien kan een hypothetisch voorbeeld (figuur 3.15) over hoe een moderator zou kunnen functioneren, zijn invloed illustreren op het selectieproces. De bovenste scatter-plot illustreert een algemene geldigheid van 0, 50 tussen de voorspeller en een criterium. De 'populatie' die in de spreidingsdiagram wordt weergegeven, is er echter één die beide geslachten omvat, namelijk dat zowel mannen als vrouwen bij elkaar worden gegroepeerd bij het bepalen van de geldigheid. Zelfs een incidentele inspectie van de top-scatter-plot geeft aan (als mannen en vrouwen anders zijn gecodeerd dan hier is gedaan) dat het patroon van scores dat wordt waargenomen voor mannen verschilt van dat waargenomen voor vrouwen.

Om een ​​duidelijker beeld te krijgen van hoe ze verschillen, tonen de twee onderste spreidingsplots in figuur 3.15 de relaties tussen de voorspeller en het criterium afzonderlijk voor mannen en voor vrouwen. Nu is het verschil opvallend. Voor de mannen zien we een hoge positieve relatie - een die een geldigheid van 0, 80 oplevert. Voor de vrouwen zien we daarentegen dat er vrijwel geen relatie bestaat tussen de voorspeller en het criterium. De geldigheid voor vrouwen is 0, 05.

De moderatorvariabele in het bovenstaande voorbeeld is natuurlijk de variabele geslacht. De relatie tussen voorspeller en criterium wordt drastisch beïnvloed door het variëren van de moderator. De vraag "wat is de geldigheid van mijn voorspeller" wordt duidelijk complexer. Wat in eerste instantie een redelijk respectabele validiteit leek te zijn, is nu veranderd in twee heel verschillende en afzonderlijke validiteiten - één zeer hoog en één zeer laag.

Eén naam voor deze laatste validiteit kan een voorwaardelijke geldigheid zijn, dat wil zeggen, de geldigheid van de voorspeller, aangezien de populatie bestaat uit vrouwen of aangezien de populatie bestaat uit mannen. Een interessant kenmerk van moderatorvariabelen is dat een moderator geen directe relatie hoeft te hebben met de voorspeller of de criteriumvariabele (dat wil zeggen, r ym en r im = 0).

Voorbeelden van moderators:

Er zijn feitelijke voorbeelden van moderators gevonden in een aantal onderzoeksonderzoeken. Vroom (1960) bijvoorbeeld vond vrij opvallende moderatoreffecten met behulp van motivatie van managers en eerstelijns supervisors als de modererende variabele. Alle mannen die werden bestudeerd, waren werknemers in de fabriek in Chicago of New York van een nationaal bezorgservicebedrijf dat gespecialiseerd was in het bezorgen van kleine pakketten en pakjes van warenhuizen en andere winkels aan particuliere woningen. Gegevens uit de studie die het moderatorconcept het best illustreren, zijn weergegeven in tabel 3.4.

Alle supervisors werden verdeeld in drie groepen op basis van hun beoordeelde mate van motivatie met behulp van een samenstelling van verschillende motivatie-indices verkregen in het onderzoek. Validiteiten voor een test van non-verbale redeneervaardigheid werden vervolgens verkregen voor elk van de vier verschillende soorten beoordelingen van deze mannen.

Dit werd apart gedaan op elk motivatieniveau. Zoals tabel 3.4 laat zien, was de test blijkbaar een vrij geldige voorspeller van hoe hoog een man zou worden beoordeeld door zijn supervisor als alleen mannen met een hoge motivatie werden beschouwd. Als we de motivatie systematisch variëren door over te gaan naar groepen met slechts matige of lage motivatieniveaus, zien we een overeenkomstige systematische verandering in de relatie tussen de test en het criterium. Hoe lager de motivatie van de werknemer, hoe minder de geldigheid van de voorspeller, de geldigheid wordt zelfs negatief voor de lage motivatiegroepen.

Andere voorbeelden van moderators zijn te vinden in studies van Dunnette en Kirchner (1960) en Ghiselli en zijn collega's (1956, 1960). Het werk van Dunnette en Kirchner is voornamelijk gericht geweest op het identificeren van werkgerelateerde moderators die mensen groeperen in banen die vergelijkbaar zijn wat betreft hun verantwoordelijkheden om maximale voorspelling te krijgen binnen elke functiegroep.

Ghiselli's methode kan een "variabelevrij" moderatorsysteem worden genoemd. Mensen worden eenvoudig gegroepeerd op basis van hoe goed hun succes kan worden voorspeld zonder directe verwijzing naar een externe variabele. Fredericksen en Gilbert (1960) hebben ook onderzoek gedaan naar moderators om te bepalen in hoeverre het effect van een moderator in de loop van de tijd consistent zal zijn. Ze ontdekten dat een moderator geïdentificeerd in een studie uit 1954 (Fredericksen en Melville, 1954) nog steeds werkte in een I960-follow-up.

Moderne versus traditionele selectietheorie:

Het concept van de moderatorvariabele illustreert misschien het beste de modemtrend in selectie en plaatsing benadrukken. Traditioneel waren selectie en validatie problemen die werden gezien als het best opgelost door simpelweg een criterium vast te stellen dat betrouwbaar leek en een voorspeller die dat criterium het best kon voorspellen.

De nadruk lag bijna volledig op het vaststellen van een hoge validiteit met weinig of geen aandacht voor het verkennen van de vele extra variabelen die, indien gevarieerd, kunnen toevoegen aan of aftrekken van de verkregen correlatie. Het algemene motto dat maar al te vaak de selectiemethode leek te typeren, was de slogan "Als het werkt, gebruik het dan!"

Zonder twijfel was dit beleid verantwoordelijk voor heel verschillende ontwikkelingen in de industriële psychologie. Ten eerste heeft het waarschijnlijk bijgedragen aan de mate waarin psychologen in de industrie werden geaccepteerd. Management is over het algemeen georiënteerd op positieve resultaten zoals vertegenwoordigd door verbeterde selectie, en is niet overdreven bezorgd over hoe het wordt bereikt.

Helaas is deze oriëntatie waarschijnlijk ook verantwoordelijk voor het feit dat de geldigheid van voorspellingen in de afgelopen 50 jaar niet of nauwelijks is gestegen - een nogal verontrustend commentaar op de inspanningen van psychologen die zich bezighouden met dit soort werk.

In een recensie uit 1955 van een groot aantal validiteitsstudies, gaf Ghiselli (1955) aan dat het inderdaad een ongewone gebeurtenis is om een ​​geldigheidscoëfficiënt van 0, 50 of beter te verkrijgen. Figuur 3.16 toont frequentieverdelingen gepresenteerd door Ghiselli van geldigheidscoëfficiënten van verschillende grootten voor verschillende soorten banen. Merk op dat alleen in de verdeling van validiteit voor bedienden die intelligentietests gebruiken als voorspellers en vaardigheidsmaatregelen als criteria er een groot aantal validiteiten boven 0, 50 zijn.

De huidige interesse in moderators is representatief voor een bredere en enigszins meer verfijnde benadering van selectie. Het kan getraceerd worden tot wanneer Toops (1948) een oproep deed aan psychologen om de mogelijkheid te overwegen dat door het systematisch te laten stratificeren van mensen (bijvoorbeeld werknemers), persoonlijke voorspellingen verbeterd moeten worden. Zijn classificatiemethode, die hij de addend-procedure noemt, is de voorloper van moderators.

Het selectiemodel van Dunnette:

Misschien kan de huidige visie op selectiemethodologie het best worden weergegeven door het selectiemodel dat is voorgesteld door Dunnette (1963). Dit model wordt weergegeven in het diagram in figuur 3.17 en is bedoeld om te wijzen op het doolhof van complexiteiten en onderlinge relaties die bestaan ​​in de selectiesituatie. Het model kan worden gezien als meer dan een poging om alleen maar te wijzen op het dynamische karakter van selectie - het betekent ook een pleidooi voor psychologen om te profiteren van deze dynamiek en ze optimaal te gebruiken om de voorspelbaarheid te verbeteren.

Men kan waarschijnlijk het standpunt begrijpen dat het model vertegenwoordigt in termen van de exacte beschrijving die Dunnette gebruikt (1963, blz. 318):

Merk op dat het gewijzigde voorspellingsmodel rekening houdt met de complexe interacties die kunnen optreden tussen voorspellers en verschillende voorspellende combinaties, verschillende groepen (of typen) van individuen, verschillende gedragingen op het werk en de gevolgen van deze gedragingen ten opzichte van de doelen van de organisatie . Het model maakt het mogelijk dat voorspellers differentieel bruikbaar zijn voor het voorspellen van het gedrag van verschillende subsets van individuen.

Verder laat het zien dat vergelijkbaar werkgedrag voorspelbaar is door heel verschillende patronen van interactie tussen groeperingen van voorspellers en individuen of zelfs dat hetzelfde prestatieniveau op voorspellers kan leiden tot wezenlijk verschillende patronen van werkgedrag voor verschillende individuen. Ten slotte erkent het model de vervelende realiteit dat dezelfde of soortgelijke baangedragingen, na door het situationele filter te zijn gegaan, tot heel andere organisatorische consequenties kunnen leiden.

De huidige trend in selectie, vertegenwoordigd door het bewustzijn van moderators en door het selectiemodel van Dunnette, zou moeten leiden tot vooruitgang in zowel de verhoogde efficiëntie van selectie als de mate van begrip van de dynamiek van accurate voorspelling.

Suppressor-variabelen:

Geen enkele bespreking van selectie zou compleet zijn zonder enige vermelding van suppressorvariabelen. In één opzicht is een suppressorvariabele vergelijkbaar met een moderatorvariabele in die zin dat deze wordt gedefinieerd als "een variabele die een effect kan hebben op de grootte van een gegeven voorspeller-criteriumrelatie, hoewel deze weinig of geen betrekking heeft tot de criteriumvariabele zelf. ”

De dynamiek van een suppressor-variabele in voorspelling kan het best worden begrepen door het concept van een gedeeltelijke correlatie en de bijbehorende meetwaarde, de semi-partiële correlatie opnieuw te bekijken. Als er twee voorspellers en een criterium zouden zijn die onderling gecorreleerd zijn, zoals hier getoond, dan gedeeltelijke correlatie tussen het criterium en voorspeller x, wat r 1c is. 2, werd gedefinieerd als de correlatie tussen x 1 en C nadat de effecten van x 2 zijn gedeeld van beide, dus

Stel dat we alleen de effecten van X2 van het criterium willen verwijderen voordat de correlatie wordt berekend. Zo'n correlatie wordt een semi-partial of part-correlatie genoemd. We zijn misschien bijvoorbeeld geïnteresseerd in de correlatie tussen testscores van intelligentie (onze voorspeller x 1 ) en het uiteindelijke vaardigheidsniveau aan het einde van een typeringstraining (het criterium) x 2 zou het initiële vaardigheidsniveau van alle werknemers in termen van hun typsnelheid vóór het volgen van de training. Daarom willen we de effecten van het initiële vaardigheidsniveau bij de uiteindelijke uitvoering verwijderen voordat we de geldigheid van onze intelligentietest berekenen.

Onze semi-partiële correlatie wordt nu:

Het mechanisme van een suppressor-variabele is identiek aan dat hierboven getoond, behalve (1) in het algemeen heeft variabele x 2 slechts een klein (indien aanwezig) verband met het criterium en (2) is men geïnteresseerd in het verwijderen van de effecten van voorspeller x 1 .

De algemene situatie kan daarom worden weergegeven als:

Met volledige zekerheid kan niet worden voorspeld of gedeeltelijke of semi-partiële correlaties groter of kleiner zullen zijn dan de eenvoudige correlatie die bestaat tussen de variabelen, aangezien de grootte van zowel de teller als de noemer wordt beïnvloed door het proces van de partialling. De enige keer dat dit niet zo is, is wanneer de variabele die wordt uitgezet alleen gerelateerd is aan een van de twee andere variabelen, zoals in het geval van de suppressor. In een dergelijke situatie wordt vervolgens alleen de noemer beïnvloed (de variantie wordt verwijderd) en de resulterende semi-deelcorrelatie is groter dan de eenvoudige niet-geplotte correlatie tussen variabelen.

Kruisvalidatie:

Een kenmerk van de meeste multiple predictieselectiesystemen is dat ze in hun ontwikkeling meestal de neiging hebben om te profiteren van de kansvariatie die bestaat in de steekproef van werknemers die worden gebruikt voor validatiedoeleinden. Dit geldt met name voor het meervoudige regressiemodel, maar is ook van toepassing op de meervoudige afkapprocedure. Omdat het multiple-regressiemodel de kleinste-kwadratische eigenschappen heeft, dat wil zeggen dat we opzettelijk de fouten minimaliseren bij het voorspellen van onze specifieke steekproef, is het waarschijnlijk dat als we onze vergelijking nu toepassen op een nieuwe steekproef (van dezelfde populatie) we onze voorspelling niet zullen vinden zo efficiënt als voorheen.

Onze berekende R2 is dus een overschatting van wat de toekomstige geldigheid van ons voorspellingssysteem geschikt lijkt te zijn, aangezien het gebruik van onze vergelijking voor voorspellingsdoeleinden automatisch impliceert dat deze wordt toegepast op nieuwe steekproeven van werknemers. Deze verwachte daling van R2 is in de statistieken bekend als het krimpprobleem en kan het best worden geïllustreerd door figuur 3.18 te bekijken.

In figuur 3.18 hebben we twee voorbeelden van individuen. Elk vertegenwoordigt een willekeurige steekproef getrokken uit of behorend tot dezelfde populatie. Voorbeeld A kan bijvoorbeeld alle sollicitanten voor taak X tijdens de oneven genummerde maanden vertegenwoordigen, en steekproef B kan alle sollicitanten tijdens de even genummerde maanden voor een bepaald jaar vertegenwoordigen.

Het zou hoogst ongebruikelijk zijn, zelfs met zeer grote aantallen aanvragers in elk monster, omdat de twee monsters identiek zijn in termen van hun spreidingsdiagrammen. Omdat van hun spreidingsplots kan worden verwacht dat ze variëren als gevolg van steekproeffouten, kan ook worden verwacht dat de correlatie tussen de voorspeller en het criterium (validiteit) enigszins zal variëren, evenals de regressievergelijking die op elk monster is berekend.

Stel dat we de regressievergelijking op basis van steekproef A hebben genomen en deze hebben gebruikt om scores van steekproef B te voorspellen. Het is duidelijk dat we de A-lijn met steekproef B niet zo min mogelijk konden gebruiken met de regressielijn B; de B-regel minimaliseert per definitie Σd 2 voor die steekproef. Voor elke andere regel is daarom een ​​grotere fout gekoppeld. Dus R2 moet dienovereenkomstig worden verminderd.

Er zijn formules beschikbaar voor het schatten van de hoeveelheid krimp die men kan verwachten bij het gebruik van deze vergelijking op een nieuw monster. Eén zo'n formule is

R 2 8 = 1 - [(1 - R2) n-1 / n - k - 1]

Waar

R2 = verkleinde meervoudige correlatie in het kwadraat

R2 = meerdere vierkante correlaties verkregen uit validatiemonster

n = aantal personen in validatiemonster

k = aantal voorspellers in regressievergelijking

Het is echter het beste om de vergelijking kruis-valideren door het verkrijgen van een tweede monster en het uitproberen om te zien hoe goed het voorspelt. Als er een grote druppel lijkt te zijn, wil je misschien de vergelijking herzien (misschien door beide steekproeven in één groep te combineren). Grote krimp wordt meestal gevonden wanneer de steekproefomvang klein is en / of het aantal voorspellers groot is ten opzichte van de steekproefomvang.

Mosier (1951) heeft een aantal soorten kruisvalidatie besproken die kunnen worden uitgevoerd afhankelijk van het ontwerp van de studie en of men zich zorgen maakt over de generalisatie van alleen een nieuw monster of dat bredere generalisaties die de voorspellingsvergelijking vergelijken wenselijk zijn (bijvoorbeeld, naar verschillende geslachten, verschillende criteria, etc.). De eerste wordt een geval van validiteit-generalisatie genoemd; de laatste is een geval van uitbreiding van de geldigheid. Natuurlijk is in het laatste geval een grotere inkrimping te verwachten, en formule 3.9 op% is van toepassing voor gevallen van geldigheidsalgoritmen.