mirror of
https://github.com/huggingface/transformers.git
synced 2025-07-06 14:20:04 +06:00

* docs: ko: gpt_neox_japanese.md * Update _toctree.yml * fix: manual edits * Update docs/source/ko/model_doc/gpt_neox_japanese.md Co-authored-by: Sungmin Oh <fabxoe.kor@gmail.com> * Update docs/source/ko/model_doc/gpt_neox_japanese.md Co-authored-by: Sungmin Oh <fabxoe.kor@gmail.com> * Update docs/source/ko/model_doc/gpt_neox_japanese.md Co-authored-by: Sungmin Oh <fabxoe.kor@gmail.com> --------- Co-authored-by: Sungmin Oh <fabxoe.kor@gmail.com>
3.7 KiB
3.7 KiB
GPT-NeoX-Japanese gpt-neox-japanese
개요 overview
일본어를 위한 자동회귀 언어 모델인 GPT-NeoX-Japanese를 소개합니다. 이 모델은 https://github.com/EleutherAI/gpt-neox에서 학습되었습니다. 일본어는 많은 어휘와 히라가나, 가타카나, 한자의 조합으로 이루어진 독특한 언어입니다. 이러한 일본어의 독특한 구조를 해결하기 위해 특수 서브워드 토크나이저를 사용했습니다. 이 유용한 토크나이저를 오픈소스로 제공해 준 tanreinama에게 매우 감사드립니다.
이 모델은 Google의 PaLM 연구 권장 사항을 따르며, 트랜스포머 블록에서 편향 파라미터를 제거하여 모델 성능을 향상시켰습니다. 자세한 내용은 이 기사를 참조하세요.
모델 개발은 ABEJA, Inc.의 신야 오타니, 타카요시 마카베, 안주 아로라, 쿄 하토리에 의해 주도되었습니다. 이 모델 개발 활동에 대한 자세한 내용은 여기를 참조하세요.
사용 예시 usage-example
generate()
메서드를 사용하면 GPT NeoX Japanese 모델을 통해 텍스트를 생성할 수 있습니다.
>>> from transformers import GPTNeoXJapaneseForCausalLM, GPTNeoXJapaneseTokenizer
>>> model = GPTNeoXJapaneseForCausalLM.from_pretrained("abeja/gpt-neox-japanese-2.7b")
>>> tokenizer = GPTNeoXJapaneseTokenizer.from_pretrained("abeja/gpt-neox-japanese-2.7b")
>>> prompt = "人とAIが協調するためには、"
>>> input_ids = tokenizer(prompt, return_tensors="pt").input_ids
>>> gen_tokens = model.generate(
... input_ids,
... do_sample=True,
... temperature=0.9,
... max_length=100,
... )
>>> gen_text = tokenizer.batch_decode(gen_tokens, skip_special_tokens=True)[0]
>>> print(gen_text)
人とAIが協調するためには、AIと人が共存し、AIを正しく理解する必要があります。
자료 resources
GPTNeoXJapanese 설정 (GPTNeoXJapaneseConfig) transformers.GPTNeoXJapaneseConfig
autodoc GPTNeoXJapaneseConfig
GPTNeoXJapanese토큰화 (GPTNeoXJapaneseTokenizer) transformers.GPTNeoXJapaneseTokenizer
autodoc GPTNeoXJapaneseTokenizer
GPTNeoXJapaneseModel transformers.GPTNeoXJapaneseModel
autodoc GPTNeoXJapaneseModel - forward
일상 LLM 을 위한 GPTNeoXJapanese(GPTNeoXJapaneseForCausalLM) transformers.GPTNeoXJapaneseForCausalLM
autodoc GPTNeoXJapaneseForCausalLM - forward