• No results found

University of Groningen Unrooting the illusion of one-size-fits-all feedback in digital learning environments Brummer, Leonie

N/A
N/A
Protected

Academic year: 2021

Share "University of Groningen Unrooting the illusion of one-size-fits-all feedback in digital learning environments Brummer, Leonie"

Copied!
50
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

Unrooting the illusion of one-size-fits-all feedback in digital learning environments

Brummer, Leonie

DOI:

10.33612/diss.171647919

IMPORTANT NOTE: You are advised to consult the publisher's version (publisher's PDF) if you wish to cite from

it. Please check the document version below.

Document Version

Publisher's PDF, also known as Version of record

Publication date:

2021

Link to publication in University of Groningen/UMCG research database

Citation for published version (APA):

Brummer, L. (2021). Unrooting the illusion of one-size-fits-all feedback in digital learning environments.

University of Groningen. https://doi.org/10.33612/diss.171647919

Copyright

Other than for strictly personal use, it is not permitted to download or to forward/distribute the text or part of it without the consent of the author(s) and/or copyright holder(s), unless the work is under an open content license (like Creative Commons).

Take-down policy

If you believe that this document breaches copyright please contact us providing details, and we will remove access to the work immediately and investigate your claim.

Downloaded from the University of Groningen/UMCG research database (Pure): http://www.rug.nl/research/portal. For technical reasons the number of authors shown on this cover page is limited to 10 maximum.

(2)

Nederlandse Samenvatting

References

Appendix

Dankwoord

About the author

(3)

Nederlandse Samenvatting

In toenemende mate worden digitale leeromgevingen gebruikt in het onderwijs, onder andere bij

het lezen van vakspecifieke informatieve teksten. Het doel van mijn proefschrift is om te onderzoeken

welke situationele en intrapersoonlijke kenmerken van invloed zijn op de verwerking van

instruc-tieve feedback tijdens het leren met behulp van een digitale leeromgeving. Digitale

leeromgevin-gen kunnen via verplichte en/of optionele voorgeprogrammeerde instructieve feedback—soms

naar verwezen als hulp—ondersteuning bieden aan leerlingen tijdens het leerproces. Optionele

voorgeprogrammeerde instructieve feedback laat ruimte voor de leerling om feedback te zoeken.

Dit kunnen zij doen door expliciet feedback te vragen en/of door andere leerlingen te

observe-ren als deze feedback ontvangen. Middels vier studies, bestaande uit twee literatuurstudies

(me-ta-analyse en systematisch literatuuronderzoek) en twee empirische studies (persoonsgerichte

benadering), trachtte ik het doel van mijn proefschrift te operationaliseren en vanuit verschillende

perspectieven te onderzoeken. De meta-analyse richtte zich op de rol van situationele kenmerken

(geclusterd in context-, inhouds- en taakkenmerken) en hun relatie tot instructieve feedback in

digitale leeromgevingen, terwijl het systematische literatuuronderzoek zich richtte op

intraper-soonlijke kenmerken (geclusterd binnen cognitie, metacognitie en motivatie) en hun relatie tot

instructieve feedback in digitale leeromgevingen. In deze twee review studies heb ik onderzocht

hoe elk van deze verzameling van kenmerken in verschillende vakgebieden en met diverse

oplei-dingsniveaus en leertaken is geoperationaliseerd.

Vervolgens heb ik een persoonsgerichte benadering gevolgd om de rol van intrapersoonlijke

ken-merken binnen een specifieke leercontext te onderzoeken, namelijk dat van begrijpend lezen bij

aardrijkskunde, omdat het begrijpen van informatieve aardrijkskundige teksten met name in de

eer-ste jaren van het secundair onderwijs (10 tot 13 jaar) een uitdagende taak blijkt te zijn. De uitdaging

voor leerlingen zit voornamelijk in het combineren van leesstrategieën met vakspecifieke

vaardig-heden. Onderzoek heeft reeds aangetoond dat tijdens het zoeken naar en verwerken van digitale

instructieve feedback de intrapersoonlijke kenmerken een rol spelen. Een voorbeeld van deze

intra-persoonlijke kenmerken is metacognitie, zoals het voortdurend monitoren van eigen begrip. Indien

de leerling tot de conclusie komt dat hij/zij het niet begrijpt (door dit zelf op te merken of doordat

iemand anders hem/haar erop wijst) moet hij/zij bepalen welke aspecten meer hulp behoeven. Een

ander belangrijk intrapersoonlijk kenmerk is motivatie, waarbij de leerling toe kan werken naar

spe-cifieke doelen en door blijft werken totdat het doel bereikt is. Binnen de twee empirische studies

wordt onderzocht wat de gezamenlijke invloed is van de intrapersoonlijke kenmerken metacognitie

en motivatie en het zoeken van feedback op het lezen van informatieve aardrijkskundige teksten.

Enerzijds hebben intrapersoonlijke kenmerken invloed op het zoeken naar en verwerken van

digi-tale instructieve feedback. Anderzijds beïnvloeden deze kenmerken het bouwen van een mendigi-tale

tekstrepresentatie, wat gezien kan worden als een representatie van de betekenis van de tekst in het

geheugen van de leerling. Om dit onderscheid te kunnen onderzoeken gebruik ik twee verschillende

analysetechnieken, maar neem ik dezelfde concepten mee in beide studies.

In de volgende paragrafen geef ik hoofdstuksgewijs een samenvatting van de belangrijkste

resulta-ten van mijn proefschrift, gevolgd door een integratie van deze resultaresulta-ten. Ik reflecteer eveneens op

de beperkingen van mijn proefschrift als geheel en ik geef suggesties voor verder onderzoek. Tot slot

bespreek ik de implicaties van mijn studies voor de praktijk.

(4)

Belangrijkste Bevindingen

In Hoofdstuk 2 beschrijf ik de resultaten van een meta-analyse naar de invloed van context-, inhouds-,

en taakkenmerken van digitale instructieve feedback op de leerprestaties van (jong)volwassenen.

Er is gericht onderscheid gemaakt tussen context-, inhoud- en taakkenmerken om te onderzoeken

welke kenmerken de meeste invloed lijken te hebben op het verbeteren van de leerprestaties. Ook

wordt er een onderscheid gemaakt tussen interventies met en zonder een controle groep en/of met

één of meerdere experimentele groepen. De contextkenmerken die zijn meegenomen betreffen het

opleidingsniveau, het feedbackmoment, de mate waarin de leerling controle kan uitoefenen, het wel

of niet ontvangen van een beloning voor deelname aan het desbetreffende onderzoek, en de

leer-omgeving. Elk kenmerk is geoperationaliseerd in verschillende categorieën door bijvoorbeeld bij

opleidingsniveau te kijken of een studie in het basis-, voortgezet, of hoger onderwijs is uitgevoerd.

De inhoudskenmerken omvatten de feedback vorm, de feedback focus en de feedback functie. Tot

slot zijn aspecten zoals wie het instrument om leerprestaties te meten heeft ontwikkeld, het type

taak, het vakgebied en de feedback weergave meegenomen als taakkenmerken. De resultaten

toon-den een medium samenvattingseffect van Hedges’ g = .41 (SE = .05) op de leerprestaties uit de 116

interventies beschreven in de 46 geïncludeerde artikelen. In de steekproef van de artikelen was een

publicatie bias aanwezig en na correctie voor deze bias was het samenvattingseffect kleiner, namelijk

Hedges’ g = .23. Een vergelijking van interventies met controle- en experimentele groepen, waarbij er

een onderscheid gemaakt werd tussen controlegroepen die wel en geen feedback kregen, liet zien

dat enige feedback beter is dan géén feedback.

Vervolgens zijn moderatoranalyses uitgevoerd op de drie clusters van kenmerken (context, inhoud en

taak) om te onderzoeken of deze kenmerken significant positief bijdragen aan de leerprestaties. Als

we kijken naar de contextkenmerken die zijn meegenomen, zien we significante verschillen tussen

de geoperationaliseerde categorieën, waarbij de categorieën met de hoogste effecten weergegeven

zijn tussen haakjes: opleidingsniveau (basisonderwijs), feedback moment (uitgestelde feedback),

de mate van controle (beslissing genomen door anderen) en onderzoeksomgeving

(onderzoeksla-boratorium). De leerprestaties werden niet positief beïnvloed door het ontvangen van beloningen

voor participatie aan het desbetreffende onderzoek. Bij de inhoudskenmerken bleken de verschillen

tussen subkenmerken statistisch significant voor de feedback vorm (simpele feedback), de feedback

focus (proces) en de feedback functie (metacognitieve feedback). De procesgeoriënteerde focus kon

nader worden gespecificeerd in oppervlakkige en diepgaande strategieën met respectievelijk

Hed-ges’ g = .53 en .09—overeenkomstig met respectievelijk een sterk en zwak effect. De verschillen

tus-sen categorieën binnen taakkenmerken waren statistisch significant voor ontwikkelaars van de

leer-prestatie meting (gestandaardiseerde tests), het type taak (mondeling), het vakgebied (bèta) en de

feedback weergave (visualisatie). Met behulp van een stapsgewijze voorwaartse regressieanalyse is

onderzocht welke gezamenlijke moderatoren (de categorieën) invloed hadden op de leerprestaties.

Een voorwaarde voor deze analyse was dat binnen interventies experimentele groepen met

contro-legroepen vergeleken worden, die wel of geen feedback aangeboden kregen. We hebben hierbij de

volgende moderatoren meegenomen: de mate van de controle, het feedback moment, de feedback

vorm, de feedback focus, de feedback functie en de feedback weergave. We hebben deze gekozen

omdat dit aspecten zijn die docenten naar eigen wens en inschatting konden aanpassen in

aanvul-ling op het onderwijs dat werd aangeboden via een digitale leeromgeving. De feedback focus had als

enige moderator invloed op het basismodel (χ

2

= 24, df = 6, p = .00). We vonden geen bewijs voor een

(5)

relatie tussen elk van de overige categorieën en de uiteindelijke leerprestatie. Ondanks dat veel

cate-gorieën een positieve invloed hadden op de leerprestaties—zoals weergeven in de reeks losse

mode-ratoranalyses per categorieën—was het doel van de metaregressie om een gezamenlijke invloed van

categorieën te presenteren. Deze gezamenlijke invloed zou generaliseerbaar zijn over verschillende

leercontexten. Echter de generaliseerbaarheid van de resultaten bleek beperkt te zijn en alleen de

feedback focus bleek invloed te hebben op de leerprestaties in verschillende onderwijscontexten.

In Hoofdstuk 3 rapporteer ik over de bevindingen van een systematisch literatuuronderzoek naar de

operationalisatie van intrapersoonlijke kenmerken in studies naar digitale feedback bij

(jong)vol-wassenen. Binnen dit hoofdstuk stonden de intrapersoonlijke kenmerken van de individuele

leer-ling centraal omdat onderzoek naar digitale feedback voornamelijk gericht wordt op de effecten van

feedback op leerprestaties, terwijl er niet of nauwelijks aandacht besteed wordt aan de rol van de

in-dividuele leerling met bijbehorende intrapersoonlijke kenmerken; dit terwijl de inin-dividuele leerling

een belangrijke positie inneemt binnen het feedbackverwerkingsproces en het leerproces.

Voor dit systematische literatuuronderzoek is eenzelfde selectie van artikelen als in de meta-analyse

gebruikt. Echter konden in dit literatuuronderzoek meer artikelen geïncludeerd worden omdat de

vraagstelling minder strenge statistische en methodologische eisen behoeft. De keuze om specifiek

een systematisch literatuuronderzoek uit te voeren heeft te maken met de ruimte voor voldoende

details. De studies beschreven in de artikelen zijn gecategoriseerd in twee dimensies om een

onder-scheid te kunnen maken tussen artikelen die de essentiële rol van het individu en/of intrapersoonlijke

kenmerken benadrukken (Dimensie A) en artikelen die deze belangrijke rol niet benadrukken

(Dimen-sie B). In totaal zijn 198 casussen op basis van 99 studies uit 71 artikelen geïncludeerd. De studies

ver-wijzen naar verschillende experimenten binnen één artikel en een casus verwijst naar één specifieke

meting binnen een studie. Dit betekent dat ik informatie op verschillende niveaus (studie- of

casusni-veau) evalueer. In de systematische review bespreek ik eerst aspecten van de geïncludeerde artikelen

op studieniveau. Daarmee bedoel ik algemene variabelen zoals de leeftijd van de deelnemers, de

verdeling van deelnemers over de onderzoekscondities (controle of experimentele groep), het

vak-gebied, het onderwijsniveau, het volgen van een feedback training, en de mate waarin de

deelne-mers controle konden uitoefenen over de instructieve feedback. Naast de algemene variabelen ga

ik in op specifieke variabelen, die op casusniveau worden geëvalueerd aan de hand van vijf thema’s.

De inhoud van deze vijf thema’s wordt geëvalueerd per dimensie om onderscheid te maken tussen

artikelen die de essentiële rol van het individu en/of intrapersoonlijke kenmerken wel benadrukken

(Dimensie A) en niet benadrukken (Dimensie B). Daarnaast is middels deze manier van presenteren

een vergelijking mogelijk tussen de dimensies. Het eerste thema is het cluster van intrapersoonlijke

kenmerken, waarin ik heb gekeken hoe elk van de casussen gericht zijn op kenmerken als cognitie,

metacognitie, of motivatie. Het tweede thema is het type meting dat is gebruikt, bijvoorbeeld of de

artikelen zelfrapportages of prestatiescores hebben gebruikt. Het derde thema gaat in op het gebruik

van meerdere metingen van hetzelfde kenmerk en het vierde thema betreft het doel van de meting

(voortoets en/of natoets). Tot slot bestaat het vijfde thema uit de focus van de meting: primair als

de casus in bijvoorbeeld een onderzoeksvraag wordt genoemd en secundair als de casus niet wordt

genoemd in een onderzoeksvraag.

(6)

In totaal zijn 71 artikelen geïncludeerd met 99 studies en 198 casussen. Tweeënzestig (62.2%) van de

99 studies benadrukten de belangrijke rol van het individu en/of intrapersoonlijke kenmerken, en

zijn daarom ingedeeld in Dimensie A. Er bestonden geen significante verschillen tussen studies

in-gedeeld in Dimensie A en studies passend bij Dimensie B als het gaat om hoe vaak de categorieën

binnen de vijf thema’s voorkomen. Een mogelijke interpretatie hiervan is dat het benadrukken van

de belangrijke rol van de individuele leerling en/of intrapersoonlijke kenmerken niet resulteerde in

een andere wijze van operationaliseren (gevat onder thema’s twee tot en met vijf) van

intrapersoon-lijke kenmerken binnen wetenschappelijk onderzoek. In beide dimensies waren cognitieve metingen

oververtegenwoordigd (Dimensie A: 57.6%; Dimensie B: 48.5%). Metacognitieve metingen werden

in mindere mate gebruikt (Dimensie A: 11,4%; Dimensie B: 13.6%), gevolgd door motivationele

me-tingen (Dimensie A: 12.9%; Dimensie B: 22.7%). Geen van de 99 studies, gerapporteerd binnen 71

artikelen van Dimensie A en B, werden alle drie clusters van intrapersoonlijke kenmerken

geïnclu-deerd. Het rapporteren van metingen uit twee clusters van intrapersoonlijke kenmerken geschiedde

in 11 van de 47 artikelen binnen Dimensie A en in 8 van de 24 artikelen binnen Dimensie B. Ten slotte

werd per dimensie bepaald of de casussen gebruikt konden worden voor eventuele effectmetingen,

waarbij het doel van de meting en de focus van de meting in een kruistabel werden geplaatst. Binnen

Dimensie A voldeden 29 (22.0%) casussen aan deze twee voorwaarden, tegen 19 (28.8%) casussen

in Dimensie B. Deze selecties gaven—theoretisch gesproken—voldoende indicatie om eventuele

ef-fecten van de desbetreffende intrapersoonlijke kenmerken op leerprestaties te kunnen berekenen.

Geen van de casussen, en daarmee ook geen van de artikelen, implementeerde een feedback training

voor de proefpersonen.

In Hoofdstuk 4 rapporteer ik over een empirisch onderzoek waaraan 123 leerlingen uit het

voortge-zet onderwijs hebben deelgenomen. In deze studie staat de relatie tussen feedback zoeken, twee

clusters van intrapersoonlijke kenmerken metacognitie en motivatie, en leesbegrip centraal.

Padmo-dellen werden uitgevoerd om de directe relatie van feedback zoeken (zelfrapportage vragenlijst) op

leesbegrip en van intrapersoonlijke kenmerken als metacognitie en motivatie (zelfrapportage

vra-genlijst) op leesbegrip voor het vak aardrijkskunde te onderzoeken. Het leesbegrip van leerlingen

werd gemeten aan de hand scores op tien meerkeuzevragen, de kwaliteit van een samenvatting en

een samengestelde indicator van de twee voorgaande indicatoren. Voor elke indicator voor

leesbe-grip is een structureel model uitgevoerd.

Daarbij wordt overigens onderscheid gemaakt tussen twee manieren van feedback zoeken. De

eer-ste is middels het observeren van anderen die instructieve feedback krijgen (monitoren). De tweede

manier van feedback zoeken is middels het direct vragen van instructieve feedback (inquiry). Het

in-trapersoonlijke kenmerk metacognitie is geoperationaliseerd als metacognitief monitoren. Motivatie,

het tweede intrapersoonlijke kenmerk, is enerzijds geconceptualiseerd als handelingen ter behoud

van het beeld dat anderen van je hebben en anderzijds als de ontvankelijkheid voor het krijgen van

instructieve feedback.

Het pad model met de directe relaties van het feedback zoeken, metacognitief monitoren en

motiva-tionele facetten op leesbegrip gemeten met meerkeuzevragen, liet alleen een significante,

zwak-ne-gatieve relatie zien tussen de inquiry methode van feedback zoeken en leesbegrip. Dit betekent dat

een hoge waarde van de inquiry methode van feedback (dus het vaker zoeken van feedback middels

(7)

directe vragen te stellen) gepaard gaat met een lage waarde van leesbegrip gemeten met

meerkeu-zevragen. Eenzelfde relatie werd gevonden voor de samengestelde indicator. Deze relatie werd niet

gevonden met leesbegrip gemeten met de kwaliteit van een samenvatting. Gewoonlijk zoekt men

naar indirecte relaties nadat er directe relaties zijn gevonden in de steekproef. Ondanks dat er geen

bewijs gevonden werd voor een directe relatie tussen feedback zoeken, metacognitie en motivatie

met leesbegrip, vond ik het belangrijk om ook indirecte relaties te evalueren. Hiermee beoogde ik

een goed beeld te kunnen krijgen van de invloed van de combinatie van kenmerken (het zoeken van

feedback, metacognitie, motivatie) op leesbegrip. Mijn hypothese was dat het zoeken van feedback

mogelijk een mediërende invloed zou hebben op de relatie tussen metacognitief monitoren en/of

motivatie (specifiek in de zin van handelingen ter behoud van het beeld dat anderen van je hebben)

met leesbegrip. Wederom werden drie padmodellen opgesteld om de mediërende rol van feedback

zoeken te onderzoeken. De complexe padmodellen, waarin de mediërende rol van beide manieren

van feedback zoeken werd uitgelicht, waren gesatureerd (dat wil zeggen dat het aantal parameters

gelijk is aan het aantal gemeten concepten) en konden de data slecht vangen. De mediërende rol

van beide manieren werd niet aangetoond. Dit kan mogelijk het gevolg zijn van de relatief kleine

steekproef in combinatie met de complexe modellen. Het is daarom belangrijk om met enige

terug-houdendheid de afwezigheid van de mediërende rol van feedback zoeken te interpreteren.

In Hoofdstuk 5 heb ik de relatie tussen een combinatie van intrapersoonlijke kenmerken en leesbegrip

onderzocht door een persoonsgerichte aanpak te hanteren. Deze persoonsgerichte aanpak zet de

leerling centraal binnen het verwerken van verplichte en optionele feedback. Ik heb profielen

opge-steld aan de hand van verschillende variabelen. Als eerste is het zoeken van feedback meegenomen,

wat gemeten is met het aantal keren dat een leerling klikt op de knop voor instructieve feedback in de

digitale leeromgeving. Als tweede is de bewustwording en het gebruik van metacognitieve

leesstra-tegieën meegenomen, wat gemeten is met een zelfrapportage vragenlijst over globale

leesstrategie-en, ondersteunde leesstrategieën, en probleem oplossende strategieën. Tot slot zijn motivationele

facetten meegenomen in de profielen, wat gemeten is met een zelfrapportage vragenlijst met

vra-gen gericht op taakwaarde, faalangst, zelfeffectiviteit, en controle over leerovertuiginvra-gen. Door naast

de reeds genoemde scores op de verschillende variabelen de scores voor de lees begrip indicatoren

(meerkeuzevragen, de kwaliteit van de samenvatting, en de gecombineerde indicator) toe te voegen

als afhankelijke variabele is het mogelijk om te bepalen welke variabelen de desbetreffende

leesbe-grip indicator voorspellen.

Uit de latente profielanalyse bleek dat een oplossing met drie verschillende profielen de data van 130

leerlingen uit het voortgezet onderwijs het beste beschreef. Omdat voor elke indicator van leesbegrip

een vergelijkbare drie-profielen oplossing naar voren kwam, werden alleen resultaten van de

samen-gestelde indicator gerapporteerd. De scores van leerlingen binnen het eerste profiel—aangeduid als

onderontwikkelde strategen (n = 47)—werden gekenmerkt door gemiddeld de laagste scores voor het

zoeken van feedback, metacognitieve leesstrategieën en motivationele facetten (m.u.v. faalangst) in

vergelijking met de andere profielen. Als je kijkt naar de scores op de faalangstschaal zullen deze

leerlingen meestal hoger dan het gemiddelde liggen. De scores van leerlingen binnen het tweede

profiel—de gemiddelde strategen (n = 64)—werden gekenmerkt door gemiddelde scores voor het

zoeken van feedback, metacognitieve leesstrategieën en motivationele facetten (m.u.v. faalangst) in

vergelijking met de andere profielen. Als je kijkt naar de schaal faalangst zullen de scores van deze

(8)

leerlingen meestal lager dan het gemiddelde liggen. De scores van leerlingen in het derde profiel—

gelabeld als vooruitstrevende strategen (n = 19)—konden het best beschreven worden door het

beha-len van gemiddeld de hoogste scores voor het zoeken van feedback, metacognitieve leesstrategieën

en motivationele facetten (m.u.v. faalangst) in vergelijking met scores van andere profielen. Als je

kijkt naar de scores op de faalangstschaal zullen deze leerlingen meestal rond het gemiddelde

lig-gen. De profielen verschilden niet significant in de scores op de metacognitieve leesstrategieën en

motivationele facetten maar wel in het zoeken van feedback. Met andere woorden, het onderscheid

tussen de profielen kan beter uitgelegd worden aan de hand van scores op het zoeken naar feedback,

maar de voorspellende waarde voor leesbegrip kan beter uitgelegd worden de scores op

metacognitie-ve leesstrategieën en motivationele facetten.

Reflecties op de Beperkingen van dit Onderzoek

Bij de interpretatie van de resultaten moet rekening gehouden worden met een aantal beperkingen.

Alhoewel er in de bestaande literatuur verschillende opvattingen bestaan over de steekproefgrootte

(zie Hooper, Coughlan, & Mullen, 2008; Hu & Bentler, 1999; Kline, 2010; Reinartz, Haenlein, &

Hense-ler, 2009), is in het huidige onderzoek de steekproefgrootte aan de kleine kant. De specifieke

leescon-text in de empirische studies roept ook vragen op of de bevindingen generaliseerbaar zijn naar

ande-re contexten waarin informatieve, maar niet aardrijkskundige, teksten centraal staan.

Ten tweede vormt de korte ontwikkelperiode en de selectie van de meetinstrumenten die zijn

ge-bruikt in hoofdstuk 4 en 5 een beperking. Het aantal mogelijkheden om bepaalde meetinstrumenten

af te nemen bij Nederlandse proefpersonen is klein. Om deze reden zijn Engelstalige items naar het

Nederlands vertaald. Het taalgebruik binnen de items werd vereenvoudigd om beter aan te sluiten

bij de doelgroep (d.w.z. leerlingen uit het eerste jaar van het voortgezet onderwijs). Hoewel deze

aanpassingen met zorg zijn uitgevoerd en meerdere malen zijn gecontroleerd door leden van het

projectteam en mijzelf, kan het zijn dat deze ingrepen mijn bevindingen hebben beïnvloed omdat

er geen pilottraject aan vooraf is gegaan om de betrouwbaarheid en de validiteit meermaals te

me-ten. Vervolgonderzoek kan zich richten op het ontwikkelen van Nederlandstalige meetinstrumenten

voor metacognitie en motivatie, waarbij tevens aansluiting gezocht dient te worden bij de specifieke

doelgroep van eerstejaars leerlingen uit het voorgezet onderwijs. In navolging van mijn

meta-analy-se vond ik het belangrijk om meerdere schalen mee te nemen van verschillende clusters van

intraper-soonlijke factoren in mijn empirische studies, maar de betrouwbaarheid van sommige schalen bleek

onvoldoende om verdere analyses uit te voeren. Om deze reden kon ik slechts voor enkele clusters

meerdere schalen meenemen (bijvoorbeeld voor motivatie, maar niet voor metacognitie), waardoor

ik onvoldoende tegemoet kon komen aan de complexiteit van de feedbacksituatie en er meer

on-derzoek nodig is om de invloed van intrapersoonlijke kenmerken op het zoeken en verwerken van

instructieve feedback tijdens het lezen in kaart te brengen.

Ten derde heb ik de concepten ‘feedback zoeken’ en ‘hulp zoeken’ als uitwisselbaar beschouwd, wat

gevolgen kan hebben voor de generalisatie van mijn resultaten. De keuze om het begrip ‘feedback

zoeken’ te gebruiken in plaats van ‘hulp zoeken’ heeft te maken met het gedetailleerde model van

Narciss (2013), waarin het zoeken naar feedback/hulp en de verwerking ervan verschillende stappen

in het leerproces zijn. Bijvoorbeeld tot de beslissing komen om feedback/hulp te zoeken kan gezien

worden als een stap evenals de beslissing waar deze instructieve feedback gevraagd kan worden

(9)

en wanneer het beste moment is om deze acties te ondernemen. Deze stappen sluiten aan bij de

verschillende onderdelen in het model van Narciss (2013)—waaronder de interne en externe

assess-ment en de noodzaak om een discrepantie tussen het huidige en gewenste niveau te verkleinen.

Een laatste reflectie betreft de inclusie van nulresultaten in dit proefschrift, maar vooral ook binnen

wetenschappelijk onderzoek. Ik heb dit gedaan omdat een focus op niet- significante bevindingen

eveneens informatief is voor zowel de theorie als de praktijk. Een voorbeeld hiervan zijn de resultaten

van hoofdstuk 4, waarbij ik de bevindingen van de directe modellen slechts beperkt en met

voorzich-tigheid kan interpreteren en de bevindingen van de indirecte maar overvolle modellen nauwelijks

kan interpreteren. Veel onderzoek rapporteert alleen significante bevindingen, wat mogelijk heeft

geleid tot een publicatie bias (zoals gevonden in hoofdstuk 2). Dit betekent dat de conclusies die

ge-trokken kunnen worden op basis van die gegevens vertekend kunnen zijn. Juist om deze vertekening

tegen te gaan, is het van belang om ook niet-significante resultaten te rapporteren. Deze

niet-signifi-cante bevindingen zijn tevens sturend voor toekomstig onderzoek, zodat we niet nogmaals het wiel

uitvinden en er binnen wetenschappelijk onderzoek voldoende transparantie bestaat om relevante

nulresultaten te communiceren.

Implicaties voor Onderzoek en Praktijk

De resultaten van dit proefschrift hebben verschillende implicaties voor onderzoek en de

onderwij-spraktijk. Ten eerste hoop ik met mijn proefschrift bewustzijn te creëren over het feit dat digitale

instructieve feedback niet ingezet wordt als een universele aanpak waarin elke individuele leerling

dezelfde feedback aangeboden krijgt omdat er tussen leerlingen verschillen kunnen bestaan bij het

zoeken, verwerken en implementeren van instructieve feedback. Ten tweede is het belangrijk dat

feedback gezien wordt als onderdeel van het leerproces en de leerling te beschouwt wordt als een

actor met een (pro)actieve rol in het feedbackproces, waarbij voornamelijk de interne processen een

essentiële rol hebben in het zoeken, verwerken en implementeren van instructieve feedback. Binnen

de context van het lezen van vakspecifieke teksten kan het zoeken van optionele instructieve

feed-back of het verplicht aangeleverd krijgen van instructieve feedfeed-back de lezer helpen om een coherente

mentale tekst representatie te bouwen. Dit betekent dat lezers (digitale) instructieve feedback

moe-ten zien als onderdeel van het lezen. Docenmoe-ten dienen op hun beurt lezers aan te zetmoe-ten tot het

zoe-ken en/of verwerzoe-ken van (digitale) instructieve feedback. Ten derde laten individuele leerlingen zien

dat zij moeite hebben met het verwerken van feedback door bijvoorbeeld geen

feedback-zoeken-de activiteiten te onfeedback-zoeken-dernemen bij foutieve of onvoldoenfeedback-zoeken-de (eind)resultaten of door dit wel te doen

maar dat dit wederom resulteert in een foutief of onvoldoende (eind)resultaat. Het gebrek aan

feed-back-zoekende activiteiten in combinatie met het ontbreken van een feedback training in veel

afge-rond wetenschappelijk onderzoek—waarbij onterecht wordt uitgegaan dat deelnemers instructieve

feedback ‘goed’ of ‘succesvol’ zullen verwerken en implementeren als dit wordt

aangeboden—sugge-reert dat het aanbieden van een training in het verwerken van instructieve feedback van meerwaarde

zou kunnen zijn. Deze training kan gericht zijn op bijvoorbeeld metacognitieve leesstrategieën en

motivationele facetten in de specifieke context van lezen, maar kan ook algemene elementen

bevat-ten die instructieve feedback als onderdeel van het leerproces beschouwen en welke ervoor zorgen

dat het individu de discrepantie tussen het huidige en gewenste leer-/leesbegrip kan overbruggen.

(10)

References

Articles marked with an asterisk indicate articles included in this meta-analysis (Chapter 2).

• Articles marked with the superscripts “a” and “b” refer to Dimension A (keyword: essential) and Dimension B (keyword: nonessential) are included in the systematic review (Chapter 3).

• Aben, J. E. J., Dingyloudi, F., Timmersmans, A. C., Strijbos, J.-W. (2019). Embracing errors for learning: Intrapersonal and interpersonal factors in feedback provision and processing in dyadic interactions. In M. Henderson, R. Ajjawi, D. Boud, & E. Molloy (Eds.), The Impact of Feedback in Higher Education (pp. 107–125). Cham, Switzerland: Springer Nature.

• aAbercombie, S., Parkes, J., & McCarty, T. (2015). Mo-tivational influences of using peer evaluation in pro-blem-based learning in medical education. Interdisci-plinary Journal of Problem-Based Learning, 9(1), 33–43. doi:10.7771/1541-5015.1501

• *aAbrami, P. C., Venkatesh, V., Meyer, E. J., & Wade, C. A.

(2013). Using electronic portfolios to foster literacy and self-regulated learning skill in elementary students. Journal of Educational Psychology, 105, 1188–1209. doi:10.1037/a0032448

• *bAbuSeileek, A. F. (2013). Using track changes and

word processor to provide corrective feedback to lear-ners in writing. Journal of Computer Assisted Learning, 29, 319–333. doi:10.1111/jcal.12004

• Ackerman, R., & Goldsmith, M. (2011). Metacognitive regulation of text learning: On screen versus on paper. Journal of Experimental Psychology: Applied, 17, 18–32. • Aho, K., Derryberry, D., & Peterson, T. (2014). Model se-lection for ecologists: The worldviews of AIC and BIC. Ecology, 95(3), 631–636.

• Akturk, A. O., & Sahin, I. (2011). Literature review on metacognition and its measurement. Procedia Social and Behavioral Sciences, 15, 3731–3736. doi:10.1016/j. sbspro.2011.04.364

• *bAlemán, J. L. F., Palmer-Brown, D., & Jayne, C. (2011).

Effects of response-driven feedback in computer sci-ence learning. IEEE Transactions on Education, 54(3), 501–508. doi:10.1109/TE.2010.2087761

• Alexander, P. A. (2005). The path to competence: A lifespan developmental perspective on reading. Jour-nal of Literacy Research, 37(4), 413–436. doi:10.1207/ s15548430jlr3704_1

• Anmarkrud, Ø, & Bråten, I. (2009). Motivation for reading comprehension. Learning and Individual Diffe-rences, 19(2), 252–256. doi:10.1016/j.lindif.2008.09.002 • Anseel, F., Beatty, A. S., Shen, W., Lievens, F., & Sackett, P.

R. (2015). How are we doing after 30 years? A meta-ana-lytic review of the antecedents and outcomes of feed-back-seeking behaviour. Journal of Management, 41(1), 318–348.

• Ashford, S. J., Blatt, R., & VandeWalle, D. (2003). Re-flections on the looking glass: A review of research on feedback-seeking behaviour in organizations. Journal of Management, 29(6), 773–799. doi:10.1016/S0149-2063(03)00079-5

• Ashford, S., De Stobbeleir, K., & Nujella, M. (2016). To seek or not to seek: Is that the only question? Recent developments in feedback-seeking literature. Annual Review of Organizational Psychology and Organiza-tional Behavior, 3, 312–239. doi:10.1146/annurev-org-psych-041015-062314

• Aydin, F. (2011). Geography teaching and metacogniti-on. Educational Research and Reviews, 6(3), 274–278. • Bacha, N. (2001). Writing evaluation: what can

ana-lytic versus holistic essay scoring tell us? System, 29, 371–383. doi:10.1016/S0346-251X(01)00025-2

• *bBaralt, M. (2013). The impact of cognitive complexity

on feedback efficacy during online versus face-to-face interactive tasks. Studies in Second Language Acquisi-tion, 35, 689–725. doi:10.1017/S0272263113000429 • Bausch, A., & Becker, K. (2001). A study of students’ lack

of study and organizational skills with middle school and high school students. (Master’s thesis). Retrieved from https://eric.ed.gov/?id=ED455461.

• Beiswinger, K. L., & Grolnick, W. S. (2010). Interperso-nal and intrapersoBeiswinger, K. L., & Grolnick, W. S. (2010). Interperso-nal factors associated with auto-nomous motivation in adolescents’ after-school ac-tivities. Journal of Early Adolescence, 30(3), 369–394. doi:10.1177/0272431609333298

• Belland, B. R., Kim, C. M., & Hannafin, M. J. (2013). A framework for designing scaffolds that improve moti-vation and cognition. Educational Psychologist, 48(4), 243–270. doi:10.1080/00461520.2013.838920 • Bendermacher, N. (2010). Beyond Alpha: Lower bounds

for the reliability of tests. Journal of Modern Ap-plied Statistical Methods, 9(1), 95–102. doi:10.22237/ jmasm/1272687000

• Benjami, Y., & Hochberg, Y. (1995). Controlling the False Discovery Rate: A practical and powerful approach to multiple testing. Journal of the Royal Statistical Society, 57(1), 289–300. doi:10.1111/j.2517-6161.1995.tb02031.x • Bensoussan, M. (2012). Alleviating test anxiety for

students of advanced reading comprehension, RELC, 43(2), 203–216. doi:10.1177/0033688212449511 • Bergman, L. R., & Trost, K. (2006). The person-oriented

versus the variable-oriented approach: Are they com-plementary, opposites, or exploring different worlds? Merrill-Palmer Quarterly, 52(3), 601–632.

• Berkeley, S., King-Sears, M. E., Vilbas, J., & Conklin, S. (2016). Textbook characteristics that support or thwart comprehension: The current state of social studies tex-ts. Reading & Writing Quarterly, 32(3), 247–272. doi:10.1 080/10573569.2014.970721

(11)

• Berstrom, T., Harris, A., & Karahalios, K. (2011). Encou-raging initiative in the classroom with anonymous feedback. In IFIP Conference on Human-Computer In-teraction (pp. 627–642). Berlin, Heidelberg: Springer. •

Best, R. M., Floyd, R. G., & McNamara, D. S. (2008). Diffe-rential competencies contributing to children’s compre-hension of narrative and expository texts. Reading Psy-chology, 29, 137–164. doi:10.1080/02702710801963951 • Bevan, R., Badge, J., Cann, A., Wilmott, C., & Scott, J.

(2008). Seeing eye-to-eye? Staff and student views of feedback. Bioscience Education, 12(1), 1–15. doi:10.3108/ beej.12.1

• Bhattacharya, M., & Coombs, S. (2018). Formalytics as real-time feedback and feedforward for sustainable li-felong learning pathways. Journal of Interactive Learn-ing Research, 29(4), 497–506.

• Bijsterbosch, R., Van der Schee, J., & Kuiper, W. (2017). Meaningful learning and summative assessment in geography education: An analysis in secondary educa-tion in the Netherlands. Internaeduca-tional Research in Geo-graphical and Environmental Education, 26(1), 17–35. doi:10.1080/10382046.2016.1217076

• *bBooth, J. L., Koedinger, K. R., Newton, K. J., & Lange,

K. E. (2013). Differentiating instruction: Providing the right kinds of worked examples for individual stu-dents. Society for Research on Educational Effective-ness. Retrieved from https://files.eric.ed.gov/fulltext/ ED563053.pdf

• Bokhove, C. (2010). Implementing feedback in a digital tool for symbol sense. International Journal for Techno-logy in Mathematics Education, 17(3), 121–126. • Borenstein, M., Hedges, L. V., Higgins, J. P. T., &

Ro-thstein, H. R. (2009). Introduction to meta-analysis. West Sussex, United Kingdom: John Wiley & Sons. • Boud, D., Ajjawi, R., Dawson, P., & Tai, J. (2018). Creating

an agenda for developing students’ evaluative judge-ment. In D. Boud, P. Dawson, R. Ajjawi, & J. Tai (2018), Developing Evaluative Judgement in Higher Educati-on: Assessment for Knowing and Producing Quality Work (pp. 186–195). London, UK: Routledge.

• Bozdogan, H. (1987). Model selection and Akaike’s in-formation criterion (AIC): The general theory and its analytical extensions. Psychometrika, 52, 345–370. • bBröder, A., & Schiffer, S. (2006). Adaptive flexibility

and maladaptive routines in selecting fast and frugal decision strategies. Journal of Experimental Psycho-logy: Learning, Memory, and Cognition, 32(4), 904–918. doi:10.1037/0278-7393.32.4.904

• Brosvic, G. M., Epstein, M. L., Cook, M. J., & Dihoff, R. E. (2005). Efficacy of error for the correction of initially incorrect assumptions and of feedback for the affirma-tion of correct responding: Learning in the classroom. The Psychological Record, 55(3), 401– 418.

• Brown, E., & Glover, C. (2006). Evaluating written feed-back. In C. Bryan, & K. Clegg (Eds.), Innovative assess-ment in higher education (pp. 102–112). New York, NY: Routledge.

• *Buder, J., & Bodemer, D. (2008). Supporting contro-versial CSCL discussions with augmented group aware-ness tools. Computer-Supported Collaborative Learn-ing, 3, 123–139. doi:10.1007/s11412-008-9037-5 • *aButchart, S., Forster, D., Gold, I., Bigelow, J., Korb,

K., Oppy, G., & Serrenti, A. (2009). Improving critical thinking using web based argument mapping exerci-ses with automated feedback. Australasian Journal of Educational Technology, 25(2), 268–291. doi:10.14742/ ajet.1154

• Butler, A. C., Godbole, N., & Marsh, E. J. (2013). Expla-nation feedback is better than correct answer feedback for promoting transfer of learning. American Psy-chological Association, 105(2), 290–298. doi:10.1037/ a0031026

• Butler, D. L., & Winne, P. H. (1995). Feedback and self-regulated learning: A theoretical synthesis. Review of Educational Research, 65(3), 245–281. doi:10.3102/00346543065003245

• Bryman, A. (2016). Social research methods. Cam-bridge, UK: Oxford University Press.

• aBye, L., Smith, S., & Rallis, H. M. (2009). Reflection

using an online discussion forum: Impact on student learning and satisfaction. Social Work Education, 28(8), 841–855. doi:10.1080/02615470802641322

• Cain, K., & Oakhill, J. (2006). Profiles of children with specific reading comprehension difficulties. British Journal of Educational Psychology, 76(4), 683–696. doi:10.1348/000709905X67610

• Calvo, M. G., & Carreiras, M. (1993). Selective influence of test anxiety on reading processes. British Journal of Psychology, 84, 375–388. doi:10.1111/j.2044-8295.1993. tb02489.x

• Carroll, D. W. (2008). Brief report: A simple stimulus for student writing and learning in the introductory psy-chology course. North American Journal of Psypsy-chology, 10(1), 159–164.

• Carver, C. S., & Scheier, M. F. (2000). Autonomy and self-regulation. Psychological Inquiry, 11(4), 284–291. • bChariker, J. H., Naaz, F., & Pani, J. R. (2011).

Compu-ter-based learning for neuroanatomy: A longitudinal study of learning, transfer, and retention, Journal of Educational Psychology, 103(1), 19–31. doi:10.1037/ a0021680

• Chasteauneuf, C. A. (2004). The role of goal orientati-ons in test-based learning. Obtained from https://ds- pace.library.uvic.ca/bitstream/handle/1828/637/chas-teauneuf_2004.pdf?sequence=1

(12)

• Cheung, A. C. K., & Slavin, R. E. (2012). How features of educational technology applications affect stu-dent reading outcomes: A meta-analysis. Educati-onal Research Review, 7, 198–215. doi:10.1016/j.edu-rev.2012.05.002

• aClariana, R. B. (2004). An interaction of screen

co-lour and lesson task in CAL. British Journal of Edu-cational Technology, 35(1), 35–43. doi:10.1111/j.1467-8535.2004.00366.x

• Clark, I. (2012). Formative assessment: Assessment is for self-regulated learning. Educational Psychology Re-view, 24(2), 205–249. doi:10.1007/s10648-011-9191-6 • Clark-Gordon, C. V., Bowman, N. D., Watts, E. R., Banks,

J., & Knight, J. M. (2018). “As good as your word”: Fa-ce-threat mitigation and the use of instructor nonver-bal cues on students’ perceptions of digital feedback. Communication Education, 67(2), 1–19. doi:10.1080/03 634523.2018.1428759

• Cohen, J. (1988). Statistical power analysis for the be-havioral sciences (2nd ed.). New York, NY: Academic Press.

• Cole, J. S., Bergin, D. A., & Whittaker, T. A. (2008). Predic-ting student achievement for low stakes tests with ef-fort and task value. Contemporary Educational Psycho-logy, 33, 609–624. doi:10.1016/j.cedpsych.2007.10.002 • Cole, R., Haimson, J., Perez-Johnson, I., & May, H. (2011).

Variability in pretest-posttest correlation coefficients by student achievement level (NCEE Reference • Report 2011-4033). Washington, DC: U.S. Department

of Education, National

• Center for Education Evaluation and Regional Assistan-ce, Institute of Education

• Sciences.

• Cook, D. A. (2012a). If you teach them, they will learn: Why medical education needs comparative effective-ness research. Advances in Health Sciences Education, 17, 305–310. doi:10.1007/s10459-012-9381-0

• Crews, T. B., & Wilkinson, K. (2010). Students’ perceived preference for visual and auditory assessment with e-handwritten feedback. Business Communication Quarterly, 73(4), 399–412. doi:10.1177/1080569910385566 • Crommelinck, M., & Anseel, F. (2013). Understanding

and encouraging feedback-seeking behaviour: A litera-ture review. Medical Education, 47, 232–241. doi:10.1111/ medu.12075

• Cubukcu, F. (2008). Enhancing vocabulary development and reading comprehension through metacognitive strategies. Issues in Educational Research, 18(1), 1–11. • Cumming, G. (2012). Understanding the New Statistics:

Effect sizes, confidence intervals, and meta-analysis. New York, NY: Routledge.

• Cutumisu, M. (2019). The association between feed-back-seeking and performance is moderated by growth mindset in a digital assessment game. Com-puters in Human Behavior, 93, 267–278. doi:10.1016/j. chb.2018.12.026

• Daher, T. A., & Kiewra, K. A. (2016). An investigation of SOAR study strategies for learning from multiple onli-ne resources. Contemporary Educational Psychology, 46, 10–21. doi:10.1016/j.cedpsych.2015.12.004 • Debuse, J., Lawley, M., & Shibl, R. (2007). The

imple-mentation of an automated assessment feedback and quality assurance system for ICT courses. Journal of In-formation Systems Education, 18(4), 491–502. •

Deeley, S. J. (2017). Using technology to facilitate effec-tive assessment for learning and feedback in higher edu-cation. Assessment & Evaluation in Higher Education, 43(3), 439–448. doi:10.1080/02602938.2017.1356906 • Denton, C. A., Wolters, C. A., York, M. J., Swanson, E.,

Kulesz, P. A., Francis, D. J. (2015). Adolescents’ use of reading comprehension strategies: Differences related to reading proficiency, grade level, and gender. Learn-ing and Individual Differences, 37, 81–95. doi:10.1016/j. lingif.2014.11.016

• Delgado, P., Vargas, C., Ackerman, R., & Salmerón, L., (2018). Don’t throw away your printed books: A me-ta-analysis on the effects of reading media on reading comprehension. Educational Research Review, 25, 23– 38. doi:10.1016/j.edurev.2018.09.003

• De Stobbeleir, K. E. M., Ashford, S. J., & Buyens, D. (2011). Self-regulation of creativity at work: The role of feedback-seeking behavior in creative performan-ce. Academy of Management Journal, 54(4), 811–831. doi:10.5465/amj.2011.64870144

• Dihoff, R. E., Brosvic, G. M., & Epstein, M. L. (2003). The role of feedback during academic testing: The delay retention effect revisited. The Psychological Record, 53, 533–548. doi:10.1007/BF03395451

• Dillon, J. T. (1986). Student questions and individual learning. Educational Theory,

• 36, 333–341.

• Dillon, A., & Jobst, J. (2005). Multimedia learning with hypermedia. In R. Mayer (Ed), The Cambridge hand-book of multimedia learning (pp. 569–588). Cam-bridge, MA: Cambridge University Press.

• Dimitrov, D. M., & Rumrill Jr., P. D. R. (2003). Pre-test-posttest designs and measurement of change. Work, 20, 159–165.

• Dillon, A., & Jobst, J. (2005). Multimedia learning with hypermedia. In R. Mayer (Ed.), The Cambridge Hand-book of Multimedia Learning (pp. 569–588). Cam-bridge, MA: Cambridge University Press.

(13)

• bD’Mello, S. K., Wodell, N., & Graesser, A. (2011). Does it

really matter whether students’ contributions are spo-ken versus typed in an intelligent tutoring system with natural language? Journal of Experimental Psychology:

Applied, 17, 1–17. doi:10.1037/a0022674

• Donker, A. S., De Boer, H., Kostons, D., Dignath van Ewijk, C. C., & Van der Werf, M. G. C. (2014). Effective-ness of learning strategy instruction on academic per-formance: A meta-analysis. Educational Research Review,

11, 1–26. doi:10.1016/j.edurev.2013.11.002

• Dressler, R., Chu, M.-W., Crossman, K., & Hilman, B. (2019). Quantity and quality of uptake: Examining sur-face and meaning-level feedback provided by peers and an instructor in a graduate research course.

Asses-sing Writing, 39, 14–24. doi:10.1016/j.asw.2018.11.001

• Duncan, S., & Feldman Barrett, L. (2007). Affect is a form of cognition: A neurobiological analysis. Cognition and

Emotion, 21, 1184–1211. doi:10.1080/02699930701437931

• Duval, S., & Tweedie, R. (2000a). Trim and Fill: A simple funnel-plot-based method of testing and adjusting for publication in meta-analysis. Biometrics, 56, 455–463. doi:10.1111/j.0006-341X.2000.00455.x

• *aDzikovska, M., Steinhauser, N., Farrow, E., Moore, J., &

Campbell, G. (2014). BEETLE II: Deep natural language understanding and automatic feedback generation for intelligent tutoring in basic electricity and electronics.

International Journal of Artificial Intelligence in Education, 24, 284–332. doi:10.1007/s40593-014-0017-9

• Efklides, A. (2008). Metacognition. Defining its facets and levels of functioning in relation to self-regulation and co-regulation. European Psychologist, 13(4), 277–287. doi:10.1027/1016-9040.13.4.277

• Ellis, P. D. (2010). The essential guide to effect sizes: Statis-tical power, meta-analysis, and the interpretation of rese-arch results. Cambridge, MA: Cambridge University Press. • aEl Saadawi, G. M., Azevedo, R., Castine, M., Payne, V.,

Medvedeva, O., Tseytlin, E., ... & Crowley, R. S. (2010). Factors affecting feeling-of-knowing in a medical intel-ligent tutoring system: The role of immediate feedback as a metacognitive scaffold. Advances in Health Sciences

Education, 15(1), 9–30. doi:0.1007/s10459-009-9162-6

• Eshet-Alkalai, Y., & Geri, N. (2010). Does the medium affect the message? The effect of congruent versus incongruent display on critical reading. Human Systems Management, 29(4), 243–251. doi:10.3233/HSM-2010-0730

• Evans, C. (2013). Making sense of assessment feedback in higher education. Review of Educational Research,

83(1), 70–120. doi:10.3102/0034654312474350

• Evans, M. A., Charland, A. R., & Saint-Aubin, J. (2009).

A new look at an old format: Eye-tracking studies of shared book reading and implications for eBook and eBook research

(pp. 89–111). In G. Bus and S. Neuman (Eds.), Multime-dia and Literacy Development. New York, NY: Rout-ledge.

• Everson, H. T., Smodlaka, I., & Tobias, S. (1994). Ex-ploring the relationship of test anxiety and met-acognition on reading test performance: A cogni-tive analysis. Anxiety, Stress, & Coping, 7(1), 85–96. doi:10.1080/10615809408248395

• Falchikov, N., & Goldfinch, J. (2000). Student peer-as-sessment in higher education: A meta-analysis compa-ring peer and teacher marks. Review of Educational

Rese-arch, 70(3), 287–322. doi:10.3102/00346543070003287

• Flavell, J. H. (1979). Metacognition and cognitive moni-toring. A new area of cognitive-developmental inquiry.

American Psychologist, 34, 906–911.

doi:10.1037/0003-066X.34.10.906

• Fokkema, M., & Greiff, S. (2017). How performing PCA and CFA on the same data equals trouble: Overfitting in the assessment of internal structure and some edi-torial thoughts on it. European Journal of Psychological

Assessment, 33(6), 399–402. doi:10.1027/1015-5759/

a000460

• Fordham, N. W. (2006). Crafting questions that address comprehension strategies in content reading. Journal of

Adolescent and Adult Literacy, 49(5), 390–396.

• Freyer R. G., Jr., (2010). Financial incentives and student achievement: Evidence from randomized trials. Retrie-ved from http://www.nber.org/papers/w15898. • Fyfe, E. R., & Rittle-Johnson, B. (2015). Feedback both

helps and hinders learning: The causal role of prior knowledge. Journal of Educational Psychology, 108(1), 1–16. doi:10.1037/edu0000053

• Fyfe, E. R., DeCaro, M. S., & Rittle-Johnson, B. (2015). When feedback is cognitively-demanding: The impor-tance of working memory capacity. Instructional Science,

43(1), 73–91. doi:10.1007/s11251-014-9323-8

• Fyfe, E. R., Rittle-Johnson, B., & DeCaro, M. S. (2012). The effects of feedback during exploratory mathema-tics problem solving: Prior knowledge matters. Journal

of Educational Psychology, 104(4), 1094–1108. doi:10.1037/

a0028389

• Gibbs, G., & Simpson, C. (2004a). Does your assessment support your students’ learning. Journal of Teaching and

learning in Higher Education, 1(1), 1–30.

• Gibbs, G., & Simpson, C. (2004b). Measuring the res-ponse of students to assessment: The Assessment Ex-perience Questionnaire. Paper presented at the 11th Improving Student Learning Symposium, Hinckley, UK. Retrieved from https://www.open.ac.uk/fast/pdfs/ Gibbs%20and%20Simpson%202003.pdf

• *bGerard, L. F., Ryoo, K., McElhaney, K. W., Liu, O. L.,

Raf-ferty, A. N., & Linn, M. C. (2016). Automated guidance for student inquiry. Journal of Educational Psychology,

(14)

• Gernsbacher, M. A. (2018). Writing empirical articles: Transparency, reproducibility, clarity, and memorabili-ty. Advances in Methods and Practice in Psychological

Scien-ce, 1(3), 403–414. doi:10.1177/2515245918754485

• Gobert, J., Sao Pedro, M., Baker, R. S., Toto, E., & Mon-talvo, O. (2012). Leveraging educational data mining for real time performance assessment of scientific inquiry skills within microworlds. Journal of Educational Data

Mi-ning, 4(1), 153–185.

• Goetz, T., Lipnevich, A. A., Krannich, M., & Gogol, K. (2018). Performance feedback and emotions. In A. A. Lipne-vich, & J. K. Smith (Eds.), The Cambridge Handbook of Instructional Feedback (pp. 554–574). Cambridge, New York, NY: Cambridge University Press.

• Gogol, K., Brunner, M., Goetz, T., Martin, R., Ugen, S., Keller, U., Fischbacch, A., & Preckel, F. (2014). “My questionnnaire is too long!” The assessments of mo-tivational-affective constructs with three-item and single-item measures. Contemporary Educational

Psycho-logy, 39(3), 188–205. doi:10.1016/j.cedpsych.2014.04.002

• Goodman, J. S., Wood, R. E., & Chen, Z. (2011). Feedback specificity, information processing, and transfer of trai-ning. Organizational behavior and human decision

proces-ses, 115 253–267. doi:10.1016/j.obhdp.2011.01.001

• Gordijn, J., & Nijhof W. J. (2002). Effects of complex feedback on computer-assisted modular instruction.

Computers & Education, 39, 183–200.

doi:10.1016/S0360-1315(02)00025-8

• Gould, J., & Day, P. (2013). Hearing you loud and clear: Student perspectives of audio feedback in higher education. Assessment & Evaluation in Higher Education,

38(5), 554–566. doi:10.1080/02602938.2012.660131

• Graham, S., Courtney, L., Tonkyn, A., & Marinis, T. (2016). Motivational trajectories for early language learning across the primary-secondary school transi-tion. British Educational Research Journal, 42(2), 682–702. doi:10.1002/berj.3230

• Gregg, M., & Sekeres, D. C. (2006). Supporting children’s reading of expository text in geography classroom. The

Reading Teacher, 60(2), 102–110. doi:10.1598/RT.60.2.1

Guthrie, J. T., & Wigfield, A. (2005). Roles of motivation

and engagement in reading comprehension assessment. In S.

G. Paris & S. A. Stahl (Eds.), Children’s Reading Compre-hension and Assessment (pp. 187–213). Mahwah, NJ: Lawrence Erlbaum Associates.

• Guthrie, J. T., Wigfield, A., Metsala, J. L., & Cox, K. E. (1999). Motivational and cognitive predictors of text comprehension and reading amount. Scientific Studies of

Reading, 3(3), 231–256. doi:10.1207/s1532799xssr0303_3

• Hacker, D. J. (1997). Comprehension monitoring of written discourse across early-to-middle adolescence.

Reading and Writing: An Interdisciplinary Journal, 9, 207–

240.

• *aHagemans, M. G., Van de Meij, H., & De Jong, T. (2013).

The effects of a concept map-based tool on simulati-on-based inquiry learning, Journal of Educational

Psycho-logy, 105(1), 1–24. doi:10.1037/a0029433

• aHagmayer, Y., & Meder, B. (2012). Repeated causal decision making. Journal of Experimental Psycho-logy: Learning, Memory, and Cognition, 39(1), 33–50. doi:10.1037/a0028643

• Hall, K. M., Sabey, B. L., & McClellan, M. (2005). Expo-sitory text comprehension: Helping primary-grade tea-chers use expository texts to full advantage. Reading

Psy-chology, 26, 211–234. doi:10.1080/02702710590962550

• Hancock, T. E., Thurman, R. A., & Hubbard, D. C. (1995). An expanded control model for the use of instructional feedback. Contemporary Educational Psychology, 20(4), 410–425. doi:10.1006/ceps.1995.1028

• Harniss, M. K., Dickson, S. V., Kinder, D., & Hollenbeck, K. L. (2001). Textual problems and instructional soluti-ons: Strategies for enhancing learning from published history textbooks. Reading & Writing Quarterly, 17, 127– 150.

• Harrer, M., Cuijpers, P., Furukawa, T. A, & Ebert, D. D. (2019). Doing Meta-Analysis in R: A Hands-on Guide, obtained from https://bookdown.org/MathiasHar-rer/Doing_Meta_Analysis_in_R/. doi:105281/zeno-do.2551803

Hattie, J. A. (1999). Influences on student learning (Inau-gural lecture, University of Auckland, New Zealand). Retrieved from https://cdn.auckland.ac.nz/assets/edu- cation/about/research/documents/influences-on-stu-dent-learning.pdf

Hattie, J., & Timperley, H. (2007). The power of feed-back. Review of Educational Research, 7(1), 81–112. doi:10.3102/003465430298487

• Hayduk, L. (2014). Seeing perfectly fitting factor models that are causally misspecified: understan-ding that close-fitting models can be worse.

Educa-tional and Psychological Measurement, 74(6), 905–926.

doi:10.1177/0013164414527449

• Hayduk, L. A., Pazderka-Robinson, H., Cummings, G. G., Boadu, K., Verbeek, E. L., & Perks, T. A. (2007). The weird world, and equally weird measurement models: Reactive indicators and the validity revo-lution. Structural Equation Modeling, 14, 280–310. doi:10.1080/10705510709336747

• Hayes, A. F., & Krippendorff, K. (2007). Answering the call for a standard reliability measure for coding data. Communication Methods and Measures, 1(1), 77–89. doi:10.1080/19312450709336664

Hedges, L. V., & Olkin, I. (1985). Statistical methods for

(15)

• *aHegele, M., & Heuer, H (2013). Age-related variations

of visuomotor adaptation result from both the acquisi-tion and the applicaacquisi-tion of explicit knowledge.

Psycho-logy and Aging, 28(2), 333–339. doi:10.1037/a0031914

• *aHeift, T. (2010). Prompting in CALL: A longitudinal

study of learner uptake. The Modern Language Journal,

94(2), 198–216. doi:10.1111/j.1540-4781.2010.01017.x

• *bHendriksson, M. P., Elwin, E., & Juslin, P. (2010). What

is coded into memory in the absence of outcome feed-back? Journal of Experimental Psychology: Learning,

Memory, and Cognition, 36(1), 1–16. doi:10.1037/a0017893

• *bHeo, M., & Chow, A. (2005). The impact of computer

augmented online learning and assessment tool.

Edu-cational Technology & Society, 8(1), 113–125.

• Herold, D. M., & Fedor, D. B. (2003). Individual differen-ces in feedback propensities and training performan-ce. Human Resource Management Review, 13, 675–689. doi:10.1016/j.hrmr.2003.11.008

• Hooper, D., Coughlan, J., & Mullen, M. (2008). Struc-tural equation modelling: Guidelines for determining model fit. The Electronic Journal of Business Research

Me-thods, 6(1), 53–60.

• *aHooshyar, D., Ahmad, R. B., Yousefi, M., Fathi, M.,

Abdollahi, A., Horng, S. J., & Lim, H. (2016). A soluti-on-based intelligent tutoring system integrated with an online game-based formative assessment: Develop-ment and evaluation. Educational Technology Research

and Development, 64(4), 787–808.

doi:10.1007/s11423-016-9433-x

• *bHsiao, H.-S., Chang, C.-S., Chen, C.-J., Wu, C.-H., & Lin,

C.-Y. (2015). The influence of Chinese character hand-writing diagnosis and remedial instruction system on learners of Chinese as a foreign language. Computer

As-sisted Language Learning, 28(4), 306–324. doi:10.1080/09

588221.2013.818562

• *aHuang, C.-J., Wang, Y.-W., Huang, T.-H., Chen, Y.-C., Chen, H.-M., & Chang, S.-C. (2011). Computers & Educa-tion, 57, 1270–1280. doi:10.1016/j.compedu.2011.01.013 • *aHuang, T.-H., Liu, Y.-C., & Shiu, C.-Y. (2008).

Con-struction of an online learning system for decimal numbers through the use of cognitive conflict strategy.

Computers & Education, 50, 61–76.

doi:10.1016/j.compe-du.2006.03.007

• *aHung, P.-H., Hwang, G.-J., Lin, Y.-F., Wu, T.-H., & Su,,

I.-H. (2013). Seamless connection between learning and assessment- Applying progressive learning tasks in mobile ecology inquiry. Educational Technology & Society,

16(1), 194–205.

• Hu, L. T., & Bentler, P. M. (1999). Cutoff Criteria for Fit Indexes in Covariance Structure Analysis: Conventional Criteria Versus New Alternatives. Structural Equation

Modeling, 6(1), 1–55.

• Husman, J., Pitt Derryberry, W., Crownson, H. M., & Lomax, R. (2004). Instrumentality, task value, and in-trinsic motivation: Making sense of their independent interdependence. Contemporary Educational Psychology,

29, 63–76. doi:10.1016/S0361-476X(03)00019-5

• Hwang, A., & Arbaugh, J. B. (2006). Virtual and tradi-tional feedback-seeking behaviors: Underlying com-petitive attitudes and consequent grade performance.

Decision Sciences Journal of Innovative Learning, 4(1), 1–28.

doi:10.1111/j.1540-4609.2006.00099.x

• Ilgen, D. R., & Davis, C. A. (2000). Bearing bad news: Reactions to negative performance feedback. Applied

Psychology: An international perspective, 49(3), 550–565.

doi:10.1111/1464-0597.00031

• bJackson, G. T., & McNamara, D. S. (2013). Motivation and performance in a game-based intelligent tutoring system. Journal of Educational Psychology, 105, 1036–1049. doi:10.1037/a0032580

• Jaehnig, W., & Miller, M. L. (2007). Feedback types in programmed instruction: A systematic review. The Psy-chological Record, 57, 219–232. doi:10.1007/BF03395573 • Jenkins, J. R., Fuchs, L. S., Van den Broek, P., Espin, C., & Deno, S. L. (2003). Sources of individual differences in reading comprehension and reading fluency. Journal of

Educational Psychology, 95(4), 719–729.

doi:10.1037/0022-0663.95.4.719

• Johnson, W. L., Rickel, J. W., & Lester, J. C. (2000). Ani-mated pedagogical agents: Face-to-face interaction in interactive learning environments. International Journal

of Artificial Intelligence in Education, 11 , 47–78.

• Jordan, S., & Mitchell, T. (2009). E-Assessment for learning? The potential of short-answer free-text questions with tailored feedback. British Journal of

Edu-cational Technology, 40(2), 371–385.

doi:10.1111/j.1467-8535.2008.00928.x

• Jonsson, A. (2013). Facilitating productive use of feed-back in higher education. Active Learning in Higher Education, 14, 63–76. doi:10.1177/1469787412467125 • aKang, S. H., Cepeda, N. J., Rohrer, D., Carpenter, S. K., &

Mozer, M. C. (2011). Does incorrect guessing impair fact learning? Journal of Educational Psychology, 103(1), 48–59. doi:10.1037/a0021977

• Karabenick, S. A. (2003). Seeking help in large college classes: A person-centered approach. Contemporary

Educational Psychology, 28, 27-58.

doi:10.1016/S0361-476X(02)00012-7

• Karpicke, J. D., & Blunt, J. R. (2011). Retrieval practice produces more learning than elaborative studying with concept mapping. Science, 331, 772–775. doi:10.1126/sci-ence.1199327

• Kelemen, W. L., Frost, P. J., & Weaver III, C. A. (2000). Individual differences in metacognition: Evidence against a general metacognitive ability. Memory &

(16)

• Kitsantas, A., & Chow, A. (2007). College students’ per-ceived threat and preference for seeking help in traditi-onal, distributed, and distance learning environments.

Computers & Education, 48(3), 383–395. doi:10.1016/j.

compedu.2005.01.008

Kline, R. B. (2010). Principles and practice of structural

equation modelling. New York, NY: Guilford.

• Kluger, A. N., & DeNisi, A. (1996). The effects of feed-back interventions on performance: A historical review, a meta-analysis, and a preliminary feedback interven-tion theory. Psychological Bulletin, 119(2), 254–284. • Krasman, J. (2010). The feedback-seeking personality:

Big Five and feedback-seeking behaviour. Journal of Leadership & Organizational Studies, 17(1), 18–32. • *aKrause, U.-M., & Stark, R. (2010). Reflection in

exam-ple- and problem-based learning: Effects of reflection prompts, feedback and cooperative learning.

Evaluati-on & Research in EducatiEvaluati-on, 23(4), 255–272. doi:10.1080/0

9500790.2010.519024

Krull, J. L., & McKinnon, D. P. (2001). Multilevel mode-ling of individual and group level mediated effect.

Mul-tivariate Behavioral Research, 36(2), 249–277. doi:10.1207/

S15327906MBR3602_06

• Kulik, J. A., & Kulik, C. C. (1988). Timing of feedback and verbal learning. Review of Educational Research, 58, 79–97. doi: 10.3102/00346543058001079

• Kulikowich, J. M., Mason, L. H., & Brown, S. W. (2008). Evaluating fifth- and sixth-grade students’ expository writing: Task development, scoring, and psychometric issues. Reading and Writing, 21, 153–175. doi:10.1007/ s11145-007-9068-8

• *bLan, Y.-F., Tsai, P.-W., Yang, S.-H., & Hung, C.-L.

(2012). Comparing the social knowledge construction behavioral patterns of problem-based online asyn-chronous discussion in e/m-learning environments.

Computers & Education, 59, 1122–1135.

doi:10.1016/j.com-pedu.2012.05.004

• bLane, C., Hays, M. J., Core, M. G., & Auerbach, D. (2013). Learning intercultural communication skills with virtu-al humans: Feedback and fidelity. Journvirtu-al of Educationvirtu-al

Psychology, 105, 1026–1035. doi:10.1037/a0031506

• *aLee, H. W., Lim, K. Y., & Grabowski, B. (2009). Gene-rative learning strategies and metacognitive feedback to facilitate comprehension of complex science topics and self-regulation. Journal of Educational Multimedia

and Hypermedia, 18(1), 5–25.

• *aLee, C., Wong, K. C. K., Cheung, W. K., & Lee, F. S. L.

(2009). Web-based essay critiquing and EFL students’ writing: A quantitative and qualitative investigati-on. Computer Assisted Language Learning, 22(1), 57–72. doi:10.1080/09588220802613807

• Lee, Y.-H., & Wu, J.-Y. (2013). The indirect effects of online social entertainment and information seeking activities on reading literacy. Computers & Education, 67, 168–177. doi:10.1016/j.compedu.2013.03.001

• Leenknecht, M., Hompus, P., & Van der Schaaf, M. (2019). Feedback seeking behaviour in higher educa-tion: The association with students’ goal orientation and deep learning approach. Assessment & Evaluation in

Higher Education, 44, 1069–1078. doi:10.1080/02602938

.2019.1571161

• aLehman B., D’Mello, S., & Graesser, A. (2012). Confusion and complex learning during interactions with compu-ter learning environments. The Incompu-ternet and Higher

Edu-cation, 15(3), 184–194. doi:10.1016/j.iheduc.2012.01.002

• Lehmann, T., Hähnlein, I., & Ifenthaler, D. (2014). Cog-nitive, metacognitive and motivational perspectives on reflection in self-regulated online learning.

Com-puters in Human Behavior, 32, 313–323. doi:10.1016/j.

chb.2013.07.051

• *aLeopold, C., & Mayer, R. E. (2015). An imagination

ef-fect in learning from scientific text. Journal of

Educatio-nal Psychology, 107(1), 47–63. doi:10.1037/a0037142

• Leopold, C., & Leutner, D. (2015). Improving students’ science text comprehension through metacognitive self-regulation when applying learning strategies.

Met-acognition and Learning, 10, 313–346.

doi:10.1007/s11409-014-9130-2

• Levenson, R. W. (1999). The intrapersonal functions of emotion. Cognition and Emotion, 13(5), 481–504. doi:10.1080/026999399379159

• bLimniou, M., & Smith, M. (2014). The role of feedback

in e-assessments for engineering education. Education

and Information Technologies, 19(1), 209–225. doi:10.1007/

s10639-012-9200-5

• bLin, C.-H., & Huang, Y. (2018). Tell me only what I want

to know: Congruent self-motivation and feedback.

So-cial Behavior and Personality, 46, 1523–1536. doi:10.2224/

sbp.7112

• Linderbaum, B. A., & Levy, P. E. (2010). The Develop-ment and Validation of the Feedback Orientation Scale (FOS). Journal of Management, 36, 1372–1405. doi:10.1177/0149206310373145

• Lipsey, M. W. (2009). The primary factors that charac-terize effective interventions with juvenile offenders: A meta-analytic overview. Victims & Offenders, 4, 124–147. doi:10.1080/15564880802612573

Lipsey, M. W., & Wilson, D. B. (2001). Practical

Meta-ana-lysis. California, United States: Sage Publications.

• *aLlorens, A. C., Vidal-Abarca, E., & Cerdán, R. (2016).

Formative assessment to transfer self-regulation of task-oriented reading strategies. Journal of Computer

Assisted Learning, 32, 314–331. doi:10.1111/jcal.12134

• *aLoewen, S., & Erlam, R. (2006). Corrective feed-back in the chatroom: An experimental study.

Computer Assisted Language Learning, 19(1), 1–14.

Referenties

GERELATEERDE DOCUMENTEN

Besides the anisotropic resonant transmission modes, the other contributor to the large linear polarization is the coherent superposition of the excitonic emission from K/K′

Unrooting the illusion of one-size- fits-all feedback in digital learning environments Leonie

These goals will be met by revisiting and systematically reviewing existing research regarding the effects of digitally delivered feedback, while making a distinction between

Such a training should not focus on expository text comprehension, but include perceptions of digitally delivered instruction- al feedback as being a part of the learning process,

Het beschrijven van leerlingen geschiedt beter door te kijken naar het proces, zoals het gebruik van metacognitieve leesstrategieën, dan naar het product, zoals de leesprestatie

Everything that has to do with preaching a sermon in a worship service, whether in a church building or in an online service, plays out in the field of the tension between the

Om terug te komen op het voorbeeld van de tegengestelde wensen van een Duitse discount bloemist en een luxe bloemist: Eelde biedt door de marktplaats de basis

This research aims to determine whether country-level characteristics: power distance and strength of minority shareholderprotection influenc the effectiveness of two