From 7bff4bdcf661eb0595110acf536e83c53b99deb6 Mon Sep 17 00:00:00 2001 From: Cypher Pepe <125112044+cypherpepe@users.noreply.github.com> Date: Mon, 14 Apr 2025 16:16:07 +0300 Subject: [PATCH] Fixed broken links (#37466) * Update broken link * Update broken link --- docs/source/ar/gguf.md | 2 +- docs/source/ko/gguf.md | 2 +- 2 files changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/source/ar/gguf.md b/docs/source/ar/gguf.md index cdb20c5640a..8f3d94d45f2 100644 --- a/docs/source/ar/gguf.md +++ b/docs/source/ar/gguf.md @@ -77,7 +77,7 @@ model = AutoModelForCausalLM.from_pretrained(model_id, gguf_file=filename) الآن لديك إمكانية الوصول إلى النسخة الكامل غير المكممة للنموذج في بيئة PyTorch، حيث يمكنك دمجه مع مجموعة كبيرة من الأدوات الأخرى. -لإعادة التحويل إلى ملف `gguf`، نوصي باستخدام ملف [`convert-hf-to-gguf.py`](https://github.com/ggerganov/llama.cpp/blob/master/convert-hf-to-gguf.py) من llama.cpp. +لإعادة التحويل إلى ملف `gguf`، نوصي باستخدام ملف [`convert-hf-to-gguf.py`](https://github.com/ggerganov/llama.cpp/blob/master/convert_hf_to_gguf.py) من llama.cpp. فيما يلي كيفية إكمال البرنامج النصي أعلاه لحفظ النموذج وإعادة تصديره مرة أخرى إلى `gguf`: diff --git a/docs/source/ko/gguf.md b/docs/source/ko/gguf.md index 03bd7c08bb2..9d9b02d708a 100644 --- a/docs/source/ko/gguf.md +++ b/docs/source/ko/gguf.md @@ -88,7 +88,7 @@ model = AutoModelForCausalLM.from_pretrained(model_id, gguf_file=filename) 이제 PyTorch 생태계에서 모델의 양자화되지 않은 전체 버전에 접근할 수 있으며, 다른 여러 도구들과 결합하여 사용할 수 있습니다. -`gguf` 파일로 다시 변환하려면 llama.cpp의 [`convert-hf-to-gguf.py`](https://github.com/ggerganov/llama.cpp/blob/master/convert-hf-to-gguf.py)를 사용하는 것을 권장합니다. +`gguf` 파일로 다시 변환하려면 llama.cpp의 [`convert-hf-to-gguf.py`](https://github.com/ggerganov/llama.cpp/blob/master/convert_hf_to_gguf.py)를 사용하는 것을 권장합니다. 위의 스크립트를 완료하여 모델을 저장하고 다시 `gguf`로 내보내는 방법은 다음과 같습니다: