Overfitting
Overfitting treedt op wanneer een AI-model de trainingsdata te goed leert, inclusief de ruis, fouten of willekeurige patronen die eigenlijk niet van belang zijn. Hierdoor presteert het model erg goed op de data waarop het getraind is, maar heeft het moeite met nieuwe, ongeziene data. Het is als een student die elke zin van een leerboek uit het hoofd leert, maar het onderwerp niet echt begrijpt en het examen niet haalt als de vragen anders worden geformuleerd.
Om overfitting te voorkomen, gebruiken ontwikkelaars technieken zoals het vereenvoudigen van het model, het toevoegen van meer uiteenlopende trainingsdata, of het gebruik van iets dat regularisatie wordt genoemd. Het doel is om een model te creëren dat de algemene patronen in data leert, in plaats van alleen de antwoorden uit het hoofd te leren. Een goed uitgebalanceerd model zou goed moeten presteren op zowel trainingsdata als data uit de echte wereld.