Bias (in AI)
Vooringenomenheid in AI ontstaat wanneer een systeem oneerlijke of onnauwkeurige resultaten geeft vanwege de manier waarop het is getraind of de data waar het van heeft geleerd. Bijvoorbeeld, als een AI-tool die het succes van sollicitanten voorspelt, voornamelijk is getraind met data van vrouwelijke kandidaten, kan het onbedoeld vrouwen boven mannen bevoordelen, zelfs als beiden even gekwalificeerd zijn.
Vooringenomenheid kan in AI sluipen omdat de data die wordt gebruikt om het te trainen vaak menselijke beslissingen, gedragingen of sociale patronen weerspiegelt, die niet altijd eerlijk zijn. Daarom is het zo belangrijk dat ontwikkelaars actief controleren op vooringenomenheid en proberen deze te corrigeren. Als er niet op wordt gelet, kan vooringenomenheid in AI leiden tot discriminatie op gebieden zoals werving, kredietverlening, wetshandhaving of gezondheidszorg.