'n Groottaalmodel (GTM) is 'n berekeningsmodel wat opmerklik is vir sy vermoë om algemene doeltaalgenerering en ander natuurliketaalverwerkingstake soos klassifikasie te bereik. Gebaseer op taalmodelle, verwerf GTM’e hierdie vermoëns deur statistiese verwantskappe uit teksdokumente te leer tydens 'n rekenaarintensiewe selftoesig- en semi-toesig opleidingsproses.[1] GTM'e kan gebruik word vir teksgenerering, 'n vorm van generatiewe kunsmatige intelligensie (KI), deur 'n invoerteks te neem en die volgende teken of woord herhaaldelik te voorspel. [2]
GTM’e is kunsmatige neurale netwerke. Die grootste en mees bekwame, vanaf Maart 2024, is gebou met 'n dekodeerder-net transformator-gebaseerde argitektuur.
Tot 2020 was fynafstelling die enigste manier waarop 'n model aangepas kon word om spesifieke take te kan verrig. Groter modelle, soos GPT-3, kan egter vinnig ontwerp word om soortgelyke resultate te behaal.[3] Daar word gemeen dat hulle kennis opdoen oor sintaksis, semantiek en "ontologie" wat inherent is aan menslike taalkorpora, maar ook onakkuraathede en vooroordele wat in die korpusse voorkom.[4]
Sommige noemenswaardige GTM’e is OpenAI se GPT-reeks modelle (bv. GPT-3.5 en GPT-4, wat in ChatGPT en Microsoft Copilot gebruik word), Google se Gemini (waarvan laasgenoemde tans in die kletsbot met dieselfde naam gebruik word), Meta se LaMDA-familie van modelle, Anthropic se Claude-modelle en Mistral AI se modelle.