From 62e355feafc5ea56b7d2477ba59146cfaf747be1 Mon Sep 17 00:00:00 2001 From: yeounyi Date: Sun, 15 Oct 2023 17:36:31 +0900 Subject: [PATCH] translate unit0, (partial) unit1 in Korean --- .github/workflows/build_documentation.yml | 2 +- .github/workflows/build_pr_documentation.yml | 2 +- units/ko/_toctree.yml | 16 ++ units/ko/unit0/discord101.mdx | 35 +++++ units/ko/unit0/introduction.mdx | 132 +++++++++++++++++ units/ko/unit0/setup.mdx | 31 ++++ units/ko/unit1/introduction.mdx | 23 +++ units/ko/unit1/rl-framework.mdx | 145 +++++++++++++++++++ units/ko/unit1/what-is-rl.mdx | 37 +++++ 9 files changed, 421 insertions(+), 2 deletions(-) create mode 100644 units/ko/_toctree.yml create mode 100644 units/ko/unit0/discord101.mdx create mode 100644 units/ko/unit0/introduction.mdx create mode 100644 units/ko/unit0/setup.mdx create mode 100644 units/ko/unit1/introduction.mdx create mode 100644 units/ko/unit1/rl-framework.mdx create mode 100644 units/ko/unit1/what-is-rl.mdx diff --git a/.github/workflows/build_documentation.yml b/.github/workflows/build_documentation.yml index f626b63d..cb31c170 100644 --- a/.github/workflows/build_documentation.yml +++ b/.github/workflows/build_documentation.yml @@ -14,7 +14,7 @@ jobs: package_name: deep-rl-course path_to_docs: deep-rl-class/units/ additional_args: --not_python_module - languages: en + languages: en ko secrets: token: ${{ secrets.HUGGINGFACE_PUSH }} hf_token: ${{ secrets.HF_DOC_BUILD_PUSH }} diff --git a/.github/workflows/build_pr_documentation.yml b/.github/workflows/build_pr_documentation.yml index 3c87366c..749fe9fa 100644 --- a/.github/workflows/build_pr_documentation.yml +++ b/.github/workflows/build_pr_documentation.yml @@ -17,4 +17,4 @@ jobs: package_name: deep-rl-course path_to_docs: deep-rl-class/units/ additional_args: --not_python_module - languages: en + languages: en ko diff --git a/units/ko/_toctree.yml b/units/ko/_toctree.yml new file mode 100644 index 00000000..1271cc55 --- /dev/null +++ b/units/ko/_toctree.yml @@ -0,0 +1,16 @@ +- title: 0단원. 강의에 오신 걸 환영합니다 + sections: + - local: unit0/introduction + title: 강의에 오신 걸 환영합니다 🤗 + - local: unit0/setup + title: 설정 + - local: unit0/discord101 + title: 디스코드 가이드 +- title: 1단원. 딥러닝을 이용한 강화학습 소개 + sections: + - local: unit1/introduction + title: 단원 소개 + - local: unit1/what-is-rl + title: 강화학습이 무엇인가요? + - local: unit1/rl-framework + title: 강화학습 프레임워크 diff --git a/units/ko/unit0/discord101.mdx b/units/ko/unit0/discord101.mdx new file mode 100644 index 00000000..838ef1d2 --- /dev/null +++ b/units/ko/unit0/discord101.mdx @@ -0,0 +1,35 @@ +# 디스코드 가이드 [[discord-101]] + +안녕하세요! 제 이름은 허기, 강아지 🐕 입니다. 이 강화학습 강의에서 함께 학습하는 것을 기대하고 있어요! (아직은) 제가 나뭇가지를 물어오는 방법을 잘 모르지만, 디스코드에 대해선 조금 알아요. 그래서 여러분을 돕기 위해 가이드를 작성했습니다! + +Huggy Logo + +디스코드를 무료 채팅 플랫폼입니다. 이미 슬랙을 사용해보셨다면, **꽤나 비슷해요**. 50000명이 가입한 허깅페이스 커뮤니티 디스코드 서버가 있는데요, 여기서 클릭 한번으로 가입하실 수 있습니다. 같이 놀 사람이 많아서 너무 좋아요! + +디스코드를 처음 시작하는 건 약간 어려워보일 수 있지만, 하나씩 알려드릴게요. + +[우리 디스코드 서버에 가입](http://hf.co/join/discord)하시면, 관심사를 고르게 됩니다. 잊지 말고 **"Reinforcement Learning"을 클릭**하세요. 그러면 이 강의와 관련된 모든 채널을 포함한 강화학습 카테고리에 접근할 수 있게 됩니다. 원하는 대로 더 다양한 채널에 가입하셔도 됩니다! 🚀 + +그 다음엔, **#introduce-yourself` 채널에 자기소개**를 하세요. + +Discord + +강화학습 카테고리에 있습니다. `role-assigment`에서 🤖 Reinforcement Learning을 클릭하여 **이 채널들에 가입하는 걸 잊지 마세요** . +- `rl-announcements`: **이 강의에 대한 최신 정보**를 확인할 수 있습니다. +- `rl-discussions`: **강화학습에 대한 정보**를 공유할 수 있습니다. +- `rl-study-group`: **수강생들과 질문**을 주고 받을 수 있습니다. +- `rl-i-made-this`: **여러분의 프로젝트와 모델을 공유**할 수 있습니다. + +허깅페이스 커뮤니티 서버는 다양한 분야에 관심 있는 사람들로 이루어진 커뮤니티입니다. 여기서 많은 것을 배우실 수 있습니다. 논문에 대한 논의, 이벤트 정보 등을 알 수 있습니다. + +이 글이 도움이 되었나요? 제가 드리고 싶은 몇 가지 팁이 있습니다: + +- 대부분 텍스트 채팅을 선호하긴 하지만, **음성 채널**도 사용하실 수 있습니다. +- 텍스트 채팅 시 **마크다운 형식**을 사용하실 수 있습니다. 코드를 작성하실 때 유용합니다. 하지만 링크는 잘 작동하지 않아요. +- 스레드를 열어도 됩니다! **긴 대화가 될 것 같을 때** 좋은 방법입니다. + +도움이 되었길 바랍니다! 질문이 있다면, 편하게 물어보세요! + +안녕! + +허기 🐶 diff --git a/units/ko/unit0/introduction.mdx b/units/ko/unit0/introduction.mdx new file mode 100644 index 00000000..e792cd98 --- /dev/null +++ b/units/ko/unit0/introduction.mdx @@ -0,0 +1,132 @@ +# 🤗 딥러닝을 이용한 강화학습 강의에 오신 걸 환영합니다 [[introduction]] + +Deep RL Course thumbnail + +인공지능에서 가장 매력적인 주제인 **딥러닝을 이용한 강화학습**에 오신 걸 환영합니다. + +이 강의는 **초보자에서 전문가 수준을 아우르며 딥러닝을 이용한 강화학습을 다룹니다.** 모두 무료고 오픈소스입니다! + +이 강의 소개 단원에서 우리는: +- **강의 내용**에 대해 더 알아볼 것입니다. +- **어떤 과정**을 선택할지 결정할 것입니다. (청강 과정 혹은 수료증 과정이 있습니다). +- 우리가 참여할 **AI vs. AI 도전과제**에 대해 더 알아볼 것입니다. +- **우리에 대해** 더 알아볼 것입니다. +- **허깅페이스 계정을 만들 것입니다** (무료입니다). +- **우리의 디스코드 서버에 가입할 것입니다**, 여기서 수강생들, 허깅페이스 팀과 소통할 수 있습니다. + +그럼 이제 시작합시다! + +## 무엇을 배우게 될까요? [[expect]] + +이 강의에서, 우리는: + +- 📖 딥러닝을 이용한 강화학습의 **이론과 실전**을 배웁니다. +- 🧑‍💻 **유명한 딥러닝을 이용한 강화학습 라이브러리를 사용하는 법**을 배웁니다. 예를 들어 [Stable Baselines3](https://stable-baselines3.readthedocs.io/en/master/), [RL Baselines3 Zoo](https://github.com/DLR-RM/rl-baselines3-zoo), [Sample Factory](https://samplefactory.dev/) 그리고 [CleanRL](https://github.com/vwxyzjn/cleanrl)을 배웁니다. +- 🤖 **특별한 환경에서 에이전트(Agent)를 학습시킵니다**. 예를 들어 [SnowballFight](https://huggingface.co/spaces/ThomasSimonini/SnowballFight), [Huggy the Doggo 🐶](https://huggingface.co/spaces/ThomasSimonini/Huggy), [VizDoom (Doom)](https://vizdoom.cs.put.edu.pl/) 그리고 [Space Invaders](https://gymnasium.farama.org/environments/atari/space_invaders/), [PyBullet](https://pybullet.org/wordpress/) 등 고전적인 환경도 다룹니다. +- 💾 **코드 한 줄로 허브(Hub)에 학습한 에이전트를** 공유합니다. 그리고 커뮤니티에서 잘 학습된 에이전트들을 다운받을 수도 있습니다. +- 🏆 **다른 팀의 에이전트와 여러분의 에이전트를 비교할 수 있는** 대회에 참여합니다. **여러분이 학습시킬 에이전트와 직접 경쟁해볼 수도 있습니다.** +- 🎓 80%의 과제를 완수하고 **수료증을 받으세요.** + +그리고 더 많은 것들이 있습니다! + +이 강의를 다 들으면, **SOTA (state-of-the-art) 방법에 대한 탄탄한 기초를 다질 수 있습니다**. + +**강의 등록하는 것**을 잊지 마세요! (**각 단원이 공개될 때 강의 링크와 도전과제, 업데이트에 관한 정보를 드리기 위해** 여러분의 이메일 주소가 필요합니다). + +👉 여기에서 등록하세요. + + +## 이 강의는 어떻게 구성되어 있나요? [[course-look-like]] + +이 강의는 다음과 같이 구성되어 있습니다: + +- *이론*: **이론의 개념**을 배웁니다. +- *실습*: **유명한 딥러닝을 이용한 강화학습 라이브러리**를 이용해 특별한 환경에서 에이전트를 학습하는 방법을 배웁니다. 실습은 **구글 코랩(Google Colab) 노트북과 튜토리얼 영상**으로 이루어져 있습니다. 동영상으로 배우는 걸 선호하면 튜토리얼 영상을 활용하세요! +- *도전과제*: 여러분의 에이전트는 다른 에이전트와 경쟁할 것입니다. 에이전트들의 성능을 비교할 [리더보드](https://huggingface.co/spaces/huggingface-projects/Deep-Reinforcement-Learning-Leaderboard)도 제공됩니다. + +## 강의계획서는 어떤가요? [[syllabus]] + +다음은 이 강의의 강의계획서입니다: + +Syllabus Part 1 +Syllabus Part 2 + +## 2가지 과정이 있습니다: 여러분이 직접 선택하세요 [[two-paths]] + +Two paths + +이 강의를 듣는 목표를 다음 중에서 선택할 수 있습니다: + +- *수료증 받기*: 80%의 과제를 완료해야 합니다. +- *우등 수료증 받기*: 100%의 과제를 완료해야 합니다. +- *청강하기*: 모든 도전과제에 참여하고 원한다면 과제도 해보세요. + +**마감 기한은 없습니다. 이 강의는 여러분의 속도에 맞춰 진행하면 됩니다**. +2가지 과정 모두 **완전히 무료입니다**. +어떤 과정을 선택하든, **강의를 즐기고 수강생들과 함께 경쟁할 수 있도록 추천드리는 진도를 따르기를** 추천드립니다. + +저희에게 어떤 과정을 선택했는지 알려주시지 않아도 됩니다. **80% 이상의 과제를 완료하면, 바로 수료증을 받으실 수 있습니다.** + +## 수료증 과정 [[certification-process]] + +수료증 과정은 **완전히 무료입니다**: + +- *수료증 받기*: 80%의 과제를 완료해야 합니다. +- *우등 수료증 받기*: 100%의 과제를 완료해야 합니다. + +다시 말씀드리지만, 이 강의는 여러분의 속도에 따라 진행되기 때문에, **마감기한은 없습니다**. 하지만 **추천드리는 진도를 따르면* 좋습니다. + +Course certification + +## 이 강의에서 최대한 많은 것을 배우려면 어떻게 해야 할까요? [[advice]] + +이 강의에서 최대한 많은 것을 배우려면, 이런 것들을 해보세요: + +1. 디스코드에서 스터디 그룹에 참여해보세요: 함께 공부하는 것이 혼자 공부하는 것보다 더 쉽습니다. 함께 공부하려면 저희의 디스코드 서버에 가입하세요. 디스코드를 사용해보지 않았어도, 걱정하지 마세요! 디스코드를 배울 수 있게 도와드립니다. +2. **퀴즈와 과제를 하세요**: 가장 좋은 공부 방법은 직접 해보고 테스트해보는 것입니다. +3. **공부 스케줄을 정하세요**: 아래에 정리된 저희가 추천하는 진도표를 사용해도 되고, 여러분이 직접 스케줄을 정하셔도 됩니다. + +Course advice + +## 준비물은 뭐가 있나요? [[tools]] + +3가지만 준비하시면 됩니다: + +- 인터넷 연결이 되는 *컴퓨터* +- *구글 코랩(Google Colab) (무료 버전)*: 대부분의 실습은 구글 코랩을 사용합니다. **무료 버전도 충분합니다.** +- *허깅페이스 계정*: 모델을 업로드하고 다운로드 받기 위해 필요합니다. 아직 계정이 없다면, **[여기](https://hf.co/join)**에서 만드세요 (무료입니다). + +Course tools needed + + +## 추천하는 진도 스케줄을 무엇인가요? [[recommended-pace]] + +이 강의의 각 단원은 **일주일에 약 3-4시간을 투자하여 일주일 안에 완료할 수 있도록** 만들었습니다. 하지만, 강의를 완료하기까지 더 오랜 시간이 걸려도 됩니다. 좀 더 깊이 공부하고 싶은 분을 위해, 추가적인 공부 자료도 드립니다. + +## 우리는 누구일까요 [[who-are-we]] +이 강의의 저자: + +- Thomas Simonini은 딥러닝을 이용한 강화학습을 주로 다루는 허깅페이스🤗의 개발자 대변인(Developer Advocate)입니다. 그는 2018년에 딥러닝을 이용한 강화학습 강의를 만들었고, 이 강의는 가장 많이 사용되는 강의 중 하나가 되었습니다. + +팀에 대하여: +- Omar Sanseviero은 허깅페이스의 머신러닝 엔지니어입니다. 그는 머신러닝, 커뮤니티, 오픈소스와 관련한 일을 합니다. 이전에 Omar는 구글의 소프트웨어 엔지니어로 일하면서 텐서플로 팀에 있었습니다. 그는 페루에서 왔고 라마🦙를 좋아합니다. +- Sayak Paul는 허깅페이스의 개발자 대변인 입니다. 그는 자기 지도 학습(self-supervision), 반지도 학습(semi-supervision), 모델 견고성(model robustness) 등을 다루는 특징 학습(representation learning)에 관심이 있습니다. 범죄/액션 스릴러🔪 영화를 보는 것도 좋아합니다. + + +## 이 강의의 도전과제는 어떤 것이 있나요? [[challenges]] + +강의의 새로운 버전엔 2가지 도전과제가 있습니다: +- [리더보드](https://huggingface.co/spaces/huggingface-projects/Deep-Reinforcement-Learning-Leaderboard)에서 다른 수강생들과 여러분의 에이전트 성능을 비교해보세요. +- [AI vs. AI 도전과제](https://huggingface.co/learn/deep-rl-course/unit7/introduction?fw=pt)에서 여러분이 학습시킨 에이전트와 다른 수강생이 학습시킨 에이전트를 경쟁시켜 보세요. + +Challenges + +## 버그를 찾았어요, 또는 이 강의를 개선하고 싶어요 [[contribute]] + +컨트리뷰션(Contributions)은 언제나 환영입니다 🤗 + +- *노트북에서 버그 🐛 를 발견*하셨다면, 이슈를 열고 **오류를 설명**해주세요. +- *강의를 개선*하고 싶다면, Pull Request를 열어주세요. + +## 아직도 궁금한 점이 있어요 [[questions]] +디스코드 서버의 #rl-discussions에 질문을 올려주세요. diff --git a/units/ko/unit0/setup.mdx b/units/ko/unit0/setup.mdx new file mode 100644 index 00000000..ddc1c8c9 --- /dev/null +++ b/units/ko/unit0/setup.mdx @@ -0,0 +1,31 @@ +# 설정 [[setup]] + +모두 설명했으니, 이제 시작할 시간입니다. 2가지 일을 해야 합니다.: + +1. 아직 만들지 않았다면 **허깅페이스 계정을 만드세요** +2. **디스코드에 가입하여 자기소개를 해주세요** (부끄러워하지 마세요 🤗) + +### 허깅페이스 계정을 만드세요 + +(아직 만들지 않았다면) 여기에서 허깅페이스 계정을 만드세요 + +### 디스코드 서버에 가입하세요 + +이제 디스코드 서버에 가입할 수 있습니다. 여기서 **커뮤니티나 우리 팀과 이야기하고, 스터디 그룹을 만들고 함께 성장할 수 있습니다**. + +👉🏻 여기에서 디스코드 서버에 가입하세요 + +가입하면, #introduce-yourself 채널에서 자기소개해주는 걸 잊지 마세요. 그리고 #role-assignments에서 강화학습 채널에 가입할 수 있습니다. + +강화학습 관련된 채널이 여러 개 있습니다: +- `rl-announcements`: 이 강의에 대한 최신 정보를 확인할 수 있습니다. +- `rl-discussions`: 강화학습에 대해 이야기하고 정보를 공유할 수 있습니다. +- `rl-study-group`: 스터디 그룹을 만들고 스터디 그룹에 참여할 수 있습니다. +- `rl-i-made-this`: 여러분의 프로젝트나 모델을 공유할 수 있습니다. + +디스코드를 처음 사용해보는 거라면, 잘 활용할 수 있도록 디스코드 가이드를 준비했습니다. 다음 장을 확인해보세요. + +축하드립니다! **온보딩을 완료하셨습니다**. 이제 딥러닝을 이용한 강화학습을 공부할 준비가 되었습니다. 즐거운 시간 되시길 바랍니다! + + +### 계속해서 배우는 당신이 멋집니다 🤗 diff --git a/units/ko/unit1/introduction.mdx b/units/ko/unit1/introduction.mdx new file mode 100644 index 00000000..c4eb5bdf --- /dev/null +++ b/units/ko/unit1/introduction.mdx @@ -0,0 +1,23 @@ +# 딥러닝을 이용한 강화학습 소개 [[introduction-to-deep-reinforcement-learning]] + +Unit 1 thumbnail + +인공지능에서 가장 매력적인 주제: **딥러닝을 이용한 강화학습**에 오신 걸 환영합니다. + +딥러닝을 이용한 강화학습은 에이전트(agent)가 특정한 환경(environment)에서 **직접 행동(action)을 취하면서** **어떻게 행동할지** 학습하고, **그 행동의 결과를 확인하는** 머신러닝의 한 종류입니다. + +첫 단원에서는, **딥러닝을 이용한 강화학습의 기초를 배워봅시다**. + +그리고, 딥러닝을 이용한 강화학습 라이브러리인, Stable-Baselines3 를 사용하여 **에이전트가 달에 잘 착륙할 수 있도록 학습시킬 것입니다.** + +LunarLander + +마지막으로, **허깅페이스 허브🤗에 학습한 에이전트를 업로드 할 것입니다. 허깅페이스 허브는 모두가 머신러닝 모델, 데이터셋, 데모를 공유할 수 있는 무료 플랫폼입니다.** + +딥러닝을 이용한 강화학습 에이전트를 직접 구현하기 전에 **이 요소들을 마스터**해야 합니다. 이번 장의 목표는 기초를 탄탄히 다지는 것입니다. + +이 단원 이후, 보너스 단원에서는, **강아지 허기🐶가 나뭇가지를 물어와 여러분과 같이 놀 수 있도록 학습시킬 것입니다 🤗**. + +