mirror of
https://github.com/huggingface/transformers.git
synced 2025-07-31 02:02:21 +06:00
🌐 [i18n-KO] Translated perf_infer_gpu_many.md
to Korean (#24943)
* doc: ko: perf_infer_gpu_many.mdx * feat: chatgpt draft * fix: manual edits * Update docs/source/ko/perf_infer_gpu_many.md Co-authored-by: Jungnerd <46880056+jungnerd@users.noreply.github.com> --------- Co-authored-by: Jungnerd <46880056+jungnerd@users.noreply.github.com>
This commit is contained in:
parent
8edd0da960
commit
bef02fd6b9
@ -127,8 +127,8 @@
|
||||
title: CPU로 추론하기
|
||||
- local: in_translation
|
||||
title: (번역중) Inference on one GPU
|
||||
- local: in_translation
|
||||
title: (번역중) Inference on many GPUs
|
||||
- local: perf_infer_gpu_many
|
||||
title: 여러 GPU에서 추론
|
||||
- local: in_translation
|
||||
title: (번역중) Inference on Specialized Hardware
|
||||
- local: perf_hardware
|
||||
|
27
docs/source/ko/perf_infer_gpu_many.md
Normal file
27
docs/source/ko/perf_infer_gpu_many.md
Normal file
@ -0,0 +1,27 @@
|
||||
<!--Copyright 2022 The HuggingFace Team. All rights reserved.
|
||||
|
||||
Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with
|
||||
the License. You may obtain a copy of the License at
|
||||
|
||||
http://www.apache.org/licenses/LICENSE-2.0
|
||||
|
||||
Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on
|
||||
an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the
|
||||
|
||||
⚠️ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be
|
||||
rendered properly in your Markdown viewer.
|
||||
|
||||
-->
|
||||
|
||||
# 다중 GPU에서 효율적인 추론 [[efficient-inference-on-a-multiple-gpus]]
|
||||
|
||||
이 문서에는 다중 GPU에서 효율적으로 추론하는 방법에 대한 정보가 포함되어 있습니다.
|
||||
<Tip>
|
||||
|
||||
참고: 다중 GPU 설정은 [단일 GPU 섹션](./perf_infer_gpu_one)에서 설명된 대부분의 전략을 사용할 수 있습니다. 그러나 더 나은 활용을 위해 간단한 기법들을 알아야 합니다.
|
||||
|
||||
</Tip>
|
||||
|
||||
## 더 빠른 추론을 위한 `BetterTransformer` [[bettertransformer-for-faster-inference]]
|
||||
|
||||
우리는 최근 텍스트, 이미지 및 오디오 모델에 대한 다중 GPU에서 더 빠른 추론을 위해 `BetterTransformer`를 통합했습니다. 자세한 내용은 이 통합에 대한 [문서](https://huggingface.co/docs/optimum/bettertransformer/overview)를 확인하십시오.
|
Loading…
Reference in New Issue
Block a user