Skip to content

Conversation

@YoungyoungJ
Copy link
Contributor

라이선스 동의

변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.

더 자세한 내용은 기여하기 문서를 참고해주세요.

동의하시면 아래 [ ][x]로 만들어주세요.

  • 기여하기 문서를 확인하였으며, 본 PR 내용에 BSD 3항 라이선스가 적용됨에 동의합니다.

관련 이슈 번호

이 Pull Request와 관련있는 이슈 번호를 적어주세요.

이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )

PR 종류

이 PR에 해당되는 종류 앞의 [ ][x]로 변경해주세요.

  • 오탈자를 수정하거나 번역을 개선하는 기여
  • 번역되지 않은 튜토리얼을 번역하는 기여
  • 공식 튜토리얼 내용을 반영하는 기여
  • 위 종류에 포함되지 않는 기여

PR 설명

이 PR로 무엇이 달라지는지 대략적으로 알려주세요.
recipes_source/torch_compile_caching_tutorial.rst 이 문서 번역했습니다.

@KJH622
Copy link

KJH622 commented Oct 19, 2025

그리고 80번 줄에 캐시(modular caches) 를 이라고 작성되어 있는데 98번 줄은 기본값(default)은 으로 작성되어 있더라고요. 괄호 뒤에 띄어쓰기를 어떻게 할지 통일하는게 더 깔끔할 것 같아요.

@YoungyoungJ
Copy link
Contributor Author

찾아봤는데 18번 줄과 같은 문장에서 목록 소개 용도로서 끝나는 경우(바로 아래 목록이 존재하면) : 표시로 번역을 하는 것이 좋다고 하더라고요. 이와 같은 문장들이 좀 더 보이는데 확인 부탁드립니다.

그리고 80번 줄에 캐시(modular caches) 를 이라고 작성되어 있는데 98번 줄은 기본값(default)은 으로 작성되어 있더라고요. 괄호 뒤에 띄어쓰기를 어떻게 할지 통일하는게 더 깔끔할 것 같아요.

넵 확인 더 해보고 리뷰 주신거 바탕으로 다시 수정해보겠습니다.

Copy link
Contributor

@minyeamer minyeamer left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

  1. 42번째 라인에서 번역된 "엔드 투 엔드 캐싱" 단어가 33, 39번째 라인에서는 원문인 "end to end caching" 으로 번역되지 않았는데 한글로 통일하는게 나아보여요.
  2. 71번째 라인에서 "기록할(logging)할" 이라고 번역되었는데 오타 같아요.

Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

긴 문서 번역하느라 수고하셨습니다
코멘트 확인 부탁드립니다

**Author:** `Oguz Ulgen <https://github.com/oulgen>`_

**저자** `Oguz Ulgen <https://github.com/oulgen>`_
**번역** `김영준 <https://github.com/YoungyoungJ>`_
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

사소한 것이지만 저자 뒤에 :가 있습니다
가급적 원본과 비슷하게 맞춰주세요


It is important to note that caching validates that the cache artifacts are used with the same PyTorch and Triton version, as well as, same GPU when device is set to be cuda.
캐시가 올바르게 동작하기 위해서는 캐시 아티팩트가 동일한 PyTorch 및 Triton 버전에서 생성된 것이어야 하며,
디바이스가 CUDA로 설정된 경우에는 같은 GPU 환경에서 사용되어야 한다는 점에 유의해야 합니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

같은 GPU 환경보다는 같은 GPU라고 하는게 더 명확한 표현일거 같습니다

디바이스가 CUDA로 설정된 경우에는 같은 GPU 환경에서 사용되어야 한다는 점에 유의해야 합니다.

``torch.compile`` end-to-end caching (``Mega-Cache``)
``torch.compile`` 엔드 투 엔드 캐싱 (``Mega-Cache``)
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

end-to-end는 하나의 단어처럼 사용됨을 고려해서 엔드투엔드로 쓰는게 어떨까요?

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

넵 알려주셔서 감사합니다! 리뷰해주신 거 바탕으로 수정하고 더 학습해보겠습니다!

@jih0-kim jih0-kim requested a review from hyoyoung October 28, 2025 12:23
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

4 participants