-
Notifications
You must be signed in to change notification settings - Fork 282
recipes_source/torch_compile_caching_tutorial.rst 번역 #1039
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
base: master
Are you sure you want to change the base?
recipes_source/torch_compile_caching_tutorial.rst 번역 #1039
Conversation
|
그리고 80번 줄에 |
넵 확인 더 해보고 리뷰 주신거 바탕으로 다시 수정해보겠습니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
- 42번째 라인에서 번역된 "엔드 투 엔드 캐싱" 단어가 33, 39번째 라인에서는 원문인 "end to end caching" 으로 번역되지 않았는데 한글로 통일하는게 나아보여요.
- 71번째 라인에서 "기록할(logging)할" 이라고 번역되었는데 오타 같아요.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
긴 문서 번역하느라 수고하셨습니다
코멘트 확인 부탁드립니다
| **Author:** `Oguz Ulgen <https://github.com/oulgen>`_ | ||
|
|
||
| **저자** `Oguz Ulgen <https://github.com/oulgen>`_ | ||
| **번역** `김영준 <https://github.com/YoungyoungJ>`_ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
사소한 것이지만 저자 뒤에 :가 있습니다
가급적 원본과 비슷하게 맞춰주세요
|
|
||
| It is important to note that caching validates that the cache artifacts are used with the same PyTorch and Triton version, as well as, same GPU when device is set to be cuda. | ||
| 캐시가 올바르게 동작하기 위해서는 캐시 아티팩트가 동일한 PyTorch 및 Triton 버전에서 생성된 것이어야 하며, | ||
| 디바이스가 CUDA로 설정된 경우에는 같은 GPU 환경에서 사용되어야 한다는 점에 유의해야 합니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
같은 GPU 환경보다는 같은 GPU라고 하는게 더 명확한 표현일거 같습니다
| 디바이스가 CUDA로 설정된 경우에는 같은 GPU 환경에서 사용되어야 한다는 점에 유의해야 합니다. | ||
|
|
||
| ``torch.compile`` end-to-end caching (``Mega-Cache``) | ||
| ``torch.compile`` 엔드 투 엔드 캐싱 (``Mega-Cache``) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
end-to-end는 하나의 단어처럼 사용됨을 고려해서 엔드투엔드로 쓰는게 어떨까요?
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
넵 알려주셔서 감사합니다! 리뷰해주신 거 바탕으로 수정하고 더 학습해보겠습니다!
라이선스 동의
변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.
더 자세한 내용은 기여하기 문서를 참고해주세요.
동의하시면 아래
[ ]를[x]로 만들어주세요.관련 이슈 번호
이 Pull Request와 관련있는 이슈 번호를 적어주세요.
이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )
PR 종류
이 PR에 해당되는 종류 앞의
[ ]을[x]로 변경해주세요.PR 설명
이 PR로 무엇이 달라지는지 대략적으로 알려주세요.
recipes_source/torch_compile_caching_tutorial.rst 이 문서 번역했습니다.