Transformer
Een transformer is een type neurale netwerkinfrastructuur die de manier waarop AI taal begrijpt en genereert, heeft getransformeerd. Het is de kerntechnologie achter veel geavanceerde taalmodellen, waaronder GPT. Transformers zijn erg goed in het verwerken van lange stukken tekst en in het begrijpen van hoe woorden zich tot elkaar verhouden, zelfs als ze ver uit elkaar staan in een zin.
In tegenstelling tot oudere modellen die woorden één voor één verwerkten, bekijken transformers de gehele zin in één keer. Dit stelt hen in staat om context effectiever vast te leggen en veel natuurlijkere en nauwkeurigere antwoorden te genereren. Ze worden gebruikt in alles van vertaaltools en chatbots tot samenvattingen en contentgeneratie.