transformers/docs/source/ko/model_doc/bart.md
Sungmin Oh 41794e6098
🌐 [i18n-KO] Translated model_doc/bart.md to Korean (#33893)
* docs: ko: model_doc/bart.md

* fix: anchor edits

* feat: nmt draft

* Update docs/source/ko/model_doc/bart.md

* Update docs/source/ko/model_doc/bart.md

* fix: manual edits

* Update docs/source/ko/model_doc/bart.md

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: manual edits

* fix: resolve suggestions

Co-authored-by: Ahnjj_DEV <ahnjj.dev@gmail.com>
Co-authored-by: HyeokJun SHIN <96534680+jun048098@users.noreply.github.com>

* fix: resolve suggestions

fix: resolve suggestions

Co-authored-by: Ahnjj_DEV <ahnjj.dev@gmail.com>

* fix: resolve suggestions

fix: resolve suggestions

Co-authored-by: Ahnjj_DEV <ahnjj.dev@gmail.com>

* fix: resolve suggestions

* fix: resolve suggestions

Co-authored-by: HyeokJun SHIN <96534680+jun048098@users.noreply.github.com>

* fix: resolve suggestions

Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>

---------

Co-authored-by: Ahnjj_DEV <ahnjj.dev@gmail.com>
Co-authored-by: HyeokJun SHIN <96534680+jun048098@users.noreply.github.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
2024-10-09 10:33:14 -07:00

12 KiB

BARTbart

개요 overview

Bart 모델은 2019년 10월 29일 Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoyer가 발표한 BART: 자연어 생성, 번역, 이해를 위한 잡음 제거 seq2seq 사전 훈련이라는 논문에서 소개되었습니다.

논문의 초록에 따르면,

  • Bart는 양방향 인코더(BERT와 유사)와 왼쪽에서 오른쪽으로 디코딩하는 디코더(GPT와 유사)를 사용하는 표준 seq2seq/기계 번역 아키텍처를 사용합니다.
  • 사전 훈련 작업은 원래 문장의 순서를 무작위로 섞고, 텍스트의 일부 구간을 단일 마스크 토큰으로 대체하는 새로운 인필링(in-filling) 방식을 포함합니다.
  • BART는 특히 텍스트 생성을 위한 미세 조정에 효과적이지만 이해 작업에도 잘 작동합니다. GLUE와 SQuAD에서 비슷한 훈련 리소스로 RoBERTa의 성능과 일치하며, 추상적 대화, 질의응답, 요약 작업 등에서 최대 6 ROUGE 점수의 향상을 보이며 새로운 최고 성능을 달성했습니다.

이 모델은 sshleifer에 의해 기여 되었습니다. 저자의 코드는 이곳에서 확인할 수 있습니다.

사용 팁:usage-tips

  • BART는 절대 위치 임베딩을 사용하는 모델이므로 일반적으로 입력을 왼쪽보다는 오른쪽에 패딩하는 것이 좋습니다.
  • 인코더와 디코더가 있는 seq2seq 모델입니다. 인코더에는 손상된 토큰이(corrupted tokens) 입력되고, 디코더에는 원래 토큰이 입력됩니다(단, 일반적인 트랜스포머 디코더처럼 미래 단어를 숨기는 마스크가 있습니다). 사전 훈련 작업에서 인코더에 적용되는 변환들의 구성은 다음과 같습니다:

사전 훈련 작업에서 인코더에 적용되는 변환들의 구성은 다음과 같습니다:

  • 무작위 토큰 마스킹 (BERT 처럼)
  • 무작위 토큰 삭제
  • k개 토큰의 범위를 단일 마스크 토큰으로 마스킹 (0개 토큰의 범위는 마스크 토큰의 삽입을 의미)
  • 문장 순서 뒤섞기
  • 특정 토큰에서 시작하도록 문서 회전

구현 노트implementation-notes

  • Bart는 시퀀스 분류에 token_type_ids를 사용하지 않습니다. 적절하게 나누기 위해서 [BartTokenizer]나 [~BartTokenizer.encode]를 사용합니다.
  • [BartModel]의 정방향 전달은 decoder_input_ids가 전달되지 않으면 decoder_input_ids를 자동으로 생성할 것입니다. 이는 다른 일부 모델링 API와 다른 점입니다. 이 기능의 일반적인 사용 사례는 마스크 채우기(mask filling)입니다.
  • 모델 예측은 forced_bos_token_id=0일 때 기존 구현과 동일하게 작동하도록 의도되었습니다. 하지만, [fairseq.encode]에 전달하는 문자열이 공백으로 시작할 때만 이 기능이 작동합니다.
  • [~generation.GenerationMixin.generate]는 요약과 같은 조건부 생성 작업에 사용되어야 합니다. 자세한 내용은 해당 문서의 예제를 참조하세요.
  • facebook/bart-large-cnn 가중치를 로드하는 모델은 mask_token_id가 없거나, 마스크 채우기 작업을 수행할 수 없습니다.

마스크 채우기mask-filling

facebook/bart-basefacebook/bart-large 체크포인트는 멀티 토큰 마스크를 채우는데 사용될 수 있습니다.

from transformers import BartForConditionalGeneration, BartTokenizer

model = BartForConditionalGeneration.from_pretrained("facebook/bart-large", forced_bos_token_id=0)
tok = BartTokenizer.from_pretrained("facebook/bart-large")
example_english_phrase = "UN Chief Says There Is No <mask> in Syria"
batch = tok(example_english_phrase, return_tensors="pt")
generated_ids = model.generate(batch["input_ids"])
assert tok.batch_decode(generated_ids, skip_special_tokens=True) == [
    "UN Chief Says There Is No Plan to Stop Chemical Weapons in Syria"
]

자료resources

BART를 시작하는 데 도움이 되는 Hugging Face와 community 자료 목록(🌎로 표시됨) 입니다. 여기에 포함될 자료를 제출하고 싶으시다면 PR(Pull Request)를 열어주세요. 리뷰 해드리겠습니다! 자료는 기존 자료를 복제하는 대신 새로운 내용을 담고 있어야 합니다.

추가적으로 볼 것들:

BartConfigtransformers.BartConfig

autodoc BartConfig - all

BartTokenizertransformers.BartTokenizer

autodoc BartTokenizer - all

BartTokenizerFasttransformers.BartTokenizerFast

autodoc BartTokenizerFast - all

BartModeltransformers.BartModel

autodoc BartModel - forward

BartForConditionalGenerationtransformers.BartForConditionalGeneration

autodoc BartForConditionalGeneration - forward

BartForSequenceClassificationtransformers.BartForSequenceClassification

autodoc BartForSequenceClassification - forward

BartForQuestionAnsweringtransformers.BartForQuestionAnswering

autodoc BartForQuestionAnswering - forward

BartForCausalLMtransformers.BartForCausalLM

autodoc BartForCausalLM - forward

TFBartModeltransformers.TFBartModel

autodoc TFBartModel - call

TFBartForConditionalGenerationtransformers.TFBartForConditionalGeneration

autodoc TFBartForConditionalGeneration - call

TFBartForSequenceClassificationtransformers.TFBartForSequenceClassification

autodoc TFBartForSequenceClassification - call

FlaxBartModeltransformers.FlaxBartModel

autodoc FlaxBartModel - call - encode - decode

FlaxBartForConditionalGenerationtransformers.FlaxBartForConditionalGeneration

autodoc FlaxBartForConditionalGeneration - call - encode - decode

FlaxBartForSequenceClassificationtransformers.FlaxBartForSequenceClassification

autodoc FlaxBartForSequenceClassification - call - encode - decode

FlaxBartForQuestionAnsweringtransformers.FlaxBartForQuestionAnswering

autodoc FlaxBartForQuestionAnswering - call - encode - decode

FlaxBartForCausalLMtransformers.FlaxBartForCausalLM

autodoc FlaxBartForCausalLM - call