transformers/docs/source/ko/model_doc/deberta.md
Sungmin Oh 13929a0ec6
🌐 [i18n-KO] Translated model_doc/deberta.md to Korean (#33967)
* docs: ko: model_doc/deberta.md

* feat: nmt draft

* fix: resolve suggestions

Co-authored-by: Chaewon Song <chaewon1019@ewhain.net>

* fix: resolve suggestions

* fix: resolve suggestions

---------

Co-authored-by: Chaewon Song <chaewon1019@ewhain.net>
2024-10-09 10:33:34 -07:00

8.9 KiB

DeBERTadeberta

개요overview

DeBERTa 모델은 Pengcheng He, Xiaodong Liu, Jianfeng Gao, Weizhu Chen이 작성한 DeBERTa: 분리된 어텐션을 활용한 디코딩 강화 BERT이라는 논문에서 제안되었습니다. 이 모델은 2018년 Google이 발표한 BERT 모델과 2019년 Facebook이 발표한 RoBERTa 모델을 기반으로 합니다. DeBERTa는 RoBERTa에서 사용된 데이터의 절반만을 사용하여 분리된(disentangled) 어텐션과 향상된 마스크 디코더 학습을 통해 RoBERTa를 개선했습니다.

논문의 초록은 다음과 같습니다:

사전 학습된 신경망 언어 모델의 최근 발전은 많은 자연어 처리(NLP) 작업의 성능을 크게 향상시켰습니다. 본 논문에서는 두 가지 새로운 기술을 사용하여 BERT와 RoBERTa 모델을 개선한 새로운 모델 구조인 DeBERTa를 제안합니다. 첫 번째는 분리된 어텐션 메커니즘으로, 각 단어가 내용과 위치를 각각 인코딩하는 두 개의 벡터로 표현되며, 단어들 간의 어텐션 가중치는 내용과 상대적 위치에 대한 분리된 행렬을 사용하여 계산됩니다. 두 번째로, 모델 사전 학습을 위해 마스킹된 토큰을 예측하는 출력 소프트맥스 층을 대체하는 향상된 마스크 디코더가 사용됩니다. 우리는 이 두 가지 기술이 모델 사전 학습의 효율성과 다운스트림 작업의 성능을 크게 향상시킨다는 것을 보여줍니다. RoBERTa-Large와 비교했을 때, 절반의 학습 데이터로 학습된 DeBERTa 모델은 광범위한 NLP 작업에서 일관되게 더 나은 성능을 보여주며, MNLI에서 +0.9%(90.2% vs 91.1%), SQuAD v2.0에서 +2.3%(88.4% vs 90.7%), RACE에서 +3.6%(83.2% vs 86.8%)의 성능 향상을 달성했습니다. DeBERTa 코드와 사전 학습된 모델은 https://github.com/microsoft/DeBERTa 에서 공개될 예정입니다.

DeBERTa 모델의 텐서플로 2.0 구현은 kamalkraj가 기여했습니다. 원본 코드는 이곳에서 확인하실 수 있습니다.

리소스resources

DeBERTa를 시작하는 데 도움이 되는 Hugging Face와 community 자료 목록(🌎로 표시됨) 입니다. 여기에 포함될 자료를 제출하고 싶으시다면 PR(Pull Request)를 열어주세요. 리뷰해 드리겠습니다! 자료는 기존 자료를 복제하는 대신 새로운 내용을 담고 있어야 합니다.

DebertaConfigtransformers.DebertaConfig

autodoc DebertaConfig

DebertaTokenizertransformers.DebertaTokenizer

autodoc DebertaTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary

DebertaTokenizerFasttransformers.DebertaTokenizerFast

autodoc DebertaTokenizerFast - build_inputs_with_special_tokens - create_token_type_ids_from_sequences

DebertaModeltransformers.DebertaModel

autodoc DebertaModel - forward

DebertaPreTrainedModeltransformers.DebertaPreTrainedModel

autodoc DebertaPreTrainedModel

DebertaForMaskedLMtransformers.DebertaForMaskedLM

autodoc DebertaForMaskedLM - forward

DebertaForSequenceClassificationtransformers.DebertaForSequenceClassification

autodoc DebertaForSequenceClassification - forward

DebertaForTokenClassificationtransformers.DebertaForTokenClassification

autodoc DebertaForTokenClassification - forward

DebertaForQuestionAnsweringtransformers.DebertaForQuestionAnswering

autodoc DebertaForQuestionAnswering - forward

TFDebertaModeltransformers.TFDebertaModel

autodoc TFDebertaModel - call

TFDebertaPreTrainedModeltransformers.TFDebertaPreTrainedModel

autodoc TFDebertaPreTrainedModel - call

TFDebertaForMaskedLMtransformers.TFDebertaForMaskedLM

autodoc TFDebertaForMaskedLM - call

TFDebertaForSequenceClassificationtransformers.TFDebertaForSequenceClassification

autodoc TFDebertaForSequenceClassification - call

TFDebertaForTokenClassificationtransformers.TFDebertaForTokenClassification

autodoc TFDebertaForTokenClassification - call

TFDebertaForQuestionAnsweringtransformers.TFDebertaForQuestionAnswering

autodoc TFDebertaForQuestionAnswering - call