En l'aprenentatge profund, l'afinament és un enfocament per transferir l'aprenentatge en el qual els pesos d'un model pre-entrenat s'entrenen amb dades noves.[1] L'ajustament es pot fer a tota la xarxa neuronal o només a un subconjunt de les seves capes, en aquest cas les capes que no s'estan ajustant es "congelen" (no s'actualitzen durant el pas de retropropagació).[2] Un model també es pot augmentar amb "adaptadors" que consisteixen en molts menys paràmetres que el model original, i ajustar-se de manera eficient amb els paràmetres ajustant els pesos dels adaptadors i deixant la resta de pesos del model congelats.
Per a algunes arquitectures, com les xarxes neuronals convolucionals, és habitual mantenir congelades les capes anteriors (les més properes a la capa d'entrada) perquè capturen característiques de nivell inferior, mentre que les capes posteriors sovint discerneixen característiques d'alt nivell que poden estar més relacionades amb la tasca en què s'entrena el model.[3][4]
Els models que s'entrenen prèviament en corpus grans i generals solen ser ajustats reutilitzant els paràmetres del model com a punt de partida i afegint una capa específica per a la tasca entrenada des de zero.[5] Ajustar el model complet també és habitual i sovint dona millors resultats, però és més car computacionalment.[6]
L'ajustament s'aconsegueix normalment amb un aprenentatge supervisat, però també hi ha tècniques per afinar un model mitjançant una supervisió feble.[7] L'ajustament es pot combinar amb un aprenentatge de reforç a partir d'objectius basats en la retroalimentació humana per produir models de llenguatge com ChatGPT (una versió afinada de GPT-3) i Sparrow.[8][9]