Fix issue #32518: Update llm_tutorial.md (#32523)

Update llm_tutorial.md

remove comma re: issue 32518

https://github.com/huggingface/transformers/issues/32518
This commit is contained in:
doomdagadiggiedahdah 2024-08-08 02:54:02 -07:00 committed by GitHub
parent aefd3e2ae1
commit 1c944ac1e1
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

View File

@ -21,7 +21,7 @@ rendered properly in your Markdown viewer.
LLMs即大语言模型是文本生成背后的关键组成部分。简单来说它们包含经过大规模预训练的transformer模型用于根据给定的输入文本预测下一个词或更准确地说下一个`token`)。由于它们一次只预测一个`token`,因此除了调用模型之外,您需要执行更复杂的操作来生成新的句子——您需要进行自回归生成。
自回归生成是在给定一些初始输入,通过迭代调用模型及其自身的生成输出来生成文本的推理过程。在🤗 Transformers中这由[`~generation.GenerationMixin.generate`]方法处理,所有具有生成能力的模型都可以使用该方法。
自回归生成是在给定一些初始输入,通过迭代调用模型及其自身的生成输出来生成文本的推理过程。在🤗 Transformers中这由[`~generation.GenerationMixin.generate`]方法处理,所有具有生成能力的模型都可以使用该方法。
本教程将向您展示如何: