Afinament (aprenentatge profund)

En l'aprenentatge profund, l'afinament és un enfocament per transferir l'aprenentatge en el qual els pesos d'un model pre-entrenat s'entrenen amb dades noves.[1] L'ajustament es pot fer a tota la xarxa neuronal o només a un subconjunt de les seves capes, en aquest cas les capes que no s'estan ajustant es "congelen" (no s'actualitzen durant el pas de retropropagació).[2] Un model també es pot augmentar amb "adaptadors" que consisteixen en molts menys paràmetres que el model original, i ajustar-se de manera eficient amb els paràmetres ajustant els pesos dels adaptadors i deixant la resta de pesos del model congelats.

Per a algunes arquitectures, com les xarxes neuronals convolucionals, és habitual mantenir congelades les capes anteriors (les més properes a la capa d'entrada) perquè capturen característiques de nivell inferior, mentre que les capes posteriors sovint discerneixen característiques d'alt nivell que poden estar més relacionades amb la tasca en què s'entrena el model.[3][4]

Els models que s'entrenen prèviament en corpus grans i generals solen ser ajustats reutilitzant els paràmetres del model com a punt de partida i afegint una capa específica per a la tasca entrenada des de zero.[5] Ajustar el model complet també és habitual i sovint dona millors resultats, però és més car computacionalment.[6]

L'ajustament s'aconsegueix normalment amb un aprenentatge supervisat, però també hi ha tècniques per afinar un model mitjançant una supervisió feble.[7] L'ajustament es pot combinar amb un aprenentatge de reforç a partir d'objectius basats en la retroalimentació humana per produir models de llenguatge com ChatGPT (una versió afinada de GPT-3) i Sparrow.[8][9]

  1. Quinn, Joanne. Dive into deep learning: tools for engagement. Thousand Oaks, California: anglès, 2020, p. 551. ISBN 978-1-5443-6137-6. 
  2. «CS231n Convolutional Neural Networks for Visual Recognition» (en anglès). cs231n.github.io. [Consulta: 9 març 2023].
  3. «CS231n Convolutional Neural Networks for Visual Recognition» (en anglès). cs231n.github.io. [Consulta: 9 març 2023].
  4. Zeiler, Matthew D; Fergus, Rob "Visualizing and Understanding Convolutional Networks", 2013. arXiv: 1311.2901.
  5. Dodge, Jesse; Ilharco, Gabriel; Schwartz, Roy; Farhadi, Ali; Hajishirzi, Hannaneh "Fine-Tuning Pretrained Language Models: Weight Initializations, Data Orders, and Early Stopping", 2020. arXiv: 2002.06305.
  6. Dingliwal, Saket; Shenoy, Ashish; Bodapati, Sravan; Gandhe, Ankur; Gadde, Ravi Teja "Prompt Tuning GPT-2 language model for parameter-efficient domain adaptation of ASR systems", 2021. arXiv: 2112.08718.
  7. Yu, Yue; Zuo, Simiao; Jiang, Haoming; Ren, Wendi; Zhao, Tuo "Fine-Tuning Pre-trained Language Model with Weak Supervision: A Contrastive-Regularized Self-Training Approach"., 2020. arXiv: 2010.07835.
  8. «Introducing ChatGPT» (en anglès). openai.com. [Consulta: 9 març 2023].
  9. Glaese, Amelia; McAleese, Nat; Trębacz, Maja; Aslanides, John; Firoiu, Vlad "Improving alignment of dialogue agents via targeted human judgements", 2022. arXiv: 2209.14375.

Developed by StudentB