Hugging Face ๐ค ์ฌ์์ ์ ๊ณตํ๋ Transformers Course๋ฅผ ํ๊ตญ์ด ๋ฒ์ ์ผ๋ก ํผ์ ๊ณต๋ถํ๋ฉฐ ์ ๋ฆฌํ ๊ธ์ ๋๋ค.
- Transformers ๋ผ์ด๋ธ๋ฌ๋ฆฌ์ ์ฒซ ๋ฒ์งธ ๋๊ตฌ, pipeline() ํจ์ ์ด์ฉํ๊ธฐ
- ํ์ดํ๋ผ์ธ ํจ์์ ํ ์คํธ๊ฐ ์ ๋ ฅ๋๋ฉด, ์ฃผ์ 3๊ฐ์ง ๋จ๊ณ๊ฐ ๋ด๋ถ์ ์ผ๋ก ์คํ๋๋ค.
- preprocessing
- ์ ๋ ฅ ํ ์คํธ ๋ชจ๋ธ์ ์ ๋ฌ
- postprocessing
- zero shot classification ํ์ดํ๋ผ์ธ์์๋ ๊ธฐ์กด์ ๋ผ์ด๋ธ๋ฌ๋ฆฌ์์ ์ ๊ณตํ๋ ๋ ์ด๋ธ์ด ์๋ ์๋ก์ด ๋ ์ด๋ธ ์งํฉ์ ์ฌ์ฉํด์ ํ ์คํธ๋ฅผ ๋ถ๋ฅํ ์ ์๋๋ก ํ๋ classifier์ด๋ค. pipeline์์ ๊ธฐ๋ณธ์ ์ผ๋ก ์ ๊ณตํ๋ ๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ก ์ฌ์ฉํ ์ ์๋ค.
from transformers import pipeline
classifier = pipeline("zero-shot-classification")
classifier(
"This is a course about the Transformers library",
candidate_labels=["education", "politics", "business"],
)
- ํ์ดํ๋ผ์ธ์์๋ default model๋ฟ๋ง ์๋๋ผ ์ํ๋ ๋ชจ๋ธ์ ์ ํํ์ฌ ํน์ ํ ์์ ์ ์ํํ ์๋ ์๋ค. ์๋ ์ฝ๋์์๋ pipeline์์ distilgpt2 ๋ชจ๋ธ์ ์ ํํ์ฌ ํด๋น generator๋ฅผ ์ฌ์ฉํ ์ ์๋ค.
- ์ด ๋ generator๋ ๋ฏธ์์ฑ๋ ํ ์คํธ ์์ฑ๊ธฐ๋ก ์ฌ์ฉ๋๋ฉฐ, ๋์ฝ๋ ๋ชจ๋ธ์ธ gpt2๋ฅผ ์ฌ์ฉํ๋ค.
from transformers import pipeline
generator = pipeline("text-generation", model="distilgpt2")
# distilgpt2 ๋ชจ๋ธ์ ๋ก๋ํ๋ค.
generator( "In this course, we will teach you how to", max_length=30, num_return_sequences=2, )
** ๋จ์ผํ ๋ฌธ์ฅ ๊ฐ์ ๋ถ์ํ๊ธฐ
** ๋ค์ค ๋ฌธ์ฅ ๊ฐ์ ๋ถ์ํ๊ธฐ
** ํน์ ํ ๋ชจ๋ธ(roberta) ๊ฐ์ ธ์์ ๊ฐ์ ๋ถ์ํ๊ธฐ
Transformer๋ ์ด๋ป๊ฒ ์ฌ์ฉ๋๋๊ฐ?
- ๋๋ถ๋ถ์ Transformer ๋ชจ๋ธ์ ์๊ฐ์ง๋(self-supervised) ํ์ต ๋ฐฉ์์ผ๋ก ํ์ต๋์๋ค. ์ฆ, ์ฌ๋์ด ์ง์ ๋ฐ์ดํฐ์ ๋ ์ด๋ธ์ ์ง์ ํ ํ์๊ฐ ์๋ค!
- ์ ์ด ํ์ต(Transfer Learning)์ด๋ ์ฌ์ ํ์ต์ด ์ํ๋ ํ์ fine-tuning์ ์งํํ๊ฒ ๋๋ค. → ๋ฐฉ๋ํ ์์ ๋ฐ์ดํฐ๋ก pretrain๋ ๋ชจ๋ธ์ ํ์ธํ๋์ ํตํด์ ์ฌ์ฉ์๊ฐ ์ํ๋ ํ์คํฌ๋ฅผ ์ ์ฉํ ์ ์๊ฒ ๋๋ค๋ ์ฅ์
- Attention layers
- ์ดํ ์ ๋ ์ด์ด(attention layers)๋ผ๋ ํน์ ๋ ์ด์ด๋ฅผ ํตํด ๋จ์ด์ ํํ์ ์ฒ๋ฆฌํ ๋, ๋ฌธ์ฅ์ ํน์ ๋จ์ด๋ค์ ํน๋ณํ ์ฃผ์(attention)๋ฅผ ๊ธฐ์ธ์ด๊ณ ๋๋จธ์ง๋ ๊ฑฐ์ ๋ฌด์ํ๋๋ก ๋ชจ๋ธ์ ์ง์ํ๊ฒ ๋จ
- ์ดํ ์ ๋ง์คํฌ(attention mask)๋ ๋ชจ๋ธ์ด ํน์ ๋จ์ด์ ์ฃผ์๋ฅผ ์ง์คํ๋ ๊ฒ์ ๋ฐฉ์งํ๋๋ก ํจ
- ์ธ์ฝ๋ ๋ชจ๋ธ - ์ฃผ์ด์ง ์ด๊ธฐ ๋ฌธ์ฅ์ ์์(mask)์ํค๊ณ , ์์์ํจ ๋ฌธ์ฅ์ ์๋ ๋ฌธ์ฅ์ผ๋ก ๋ณต์ํ๋ ๊ณผ์ ์ ํตํด์ ๋ชจ๋ธ ํ์ต์ด ์งํ๋จ.
- ๋์ฝ๋ ๋ชจ๋ธ - ์ผ๋ฐ์ ์ผ๋ก ๋ฌธ์ฅ์ ๋ค์ ๋จ์ด ์์ธก ์ํ์ผ๋ก ์ด๋ฃจ์ด์ง๊ณ , ํ ์คํธ ์์ฑ๊ณผ ๊ด๋ จ๋ ์์ ์ ์ ํฉํจ (GPT)๋์ ์์ ์ ์ข ๋ฅ์ ๋ฐ๋ผ Transformer์ ์ํคํ ์ฒ๋ฅผ ๋ณ๊ฒฝํ์ฌ attention layer๋ฅผ ์ ์ฉํ ์ ์๋ค.
'AI' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Python] ์์ฐ์ด์ฒ๋ฆฌ - TfidfVectorizer (0) | 2024.07.30 |
---|---|
[RecSys] Latent Factor ์์๋ณด๊ธฐ (0) | 2024.03.26 |
[NLP] ์ธ์ด๋ชจ๋ธ์ ํ๊ฐ ์งํ - PPL, BLEU score (2) | 2023.11.21 |
[PyTorch] Transformers ๋ผ์ด๋ธ๋ฌ๋ฆฌ #2 (2) | 2023.11.01 |
[PyTorch] M1, M2 ์นฉ์ผ๋ก Pytorch GPU ์ฌ์ฉํ๊ธฐ (0) | 2023.08.10 |