diff --git a/README_CH.md b/README_CH.md
new file mode 100644
index 00000000..57376592
--- /dev/null
+++ b/README_CH.md
@@ -0,0 +1,175 @@
+
+
OmAgent
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ English | 中文 | 日本語 | Français
+
+
+## 🗓️ 更新日志
+* 2024/10/20:我们正在积极开发2.0.0版本 🚧 令人兴奋的新功能正在开发中!欢迎在X和Discord上加入我们~
+* 2024/09/20:我们的论文已被EMNLP 2024接收。迈阿密见!🏝
+* 2024/07/04:OmAgent开源项目正式发布 🎉
+* 2024/06/24:[OmAgent研究论文已发表](https://arxiv.org/abs/2406.16620)
+
+## 📖 简介
+OmAgent是一个先进的多模态智能代理系统,致力于利用多模态大语言模型和其他多模态算法来完成有趣的任务。OmAgent项目包含一个轻量级智能代理框架omagent_core,专门设计用于解决多模态挑战。基于此框架,我们构建了一个复杂的长视频理解系统——OmAgent。当然,您也可以使用它来实现任何您的创新想法。
+
+OmAgent包含三个核心组件:
+- **Video2RAG**:该组件的核心理念是将长视频的理解转化为多模态RAG任务。这种方法的优点是突破了视频长度的限制;但缺点是这种预处理可能会导致大量视频细节的丢失。
+- **DnCLoop**:受经典分治算法范式的启发,我们设计了一个递归的通用任务处理逻辑。该方法通过迭代将复杂问题细化为任务树,最终将复杂任务转化为一系列可解决的简单任务。
+- **Rewinder工具**:为了解决Video2RAG过程中的信息损失问题,我们设计了一个名为Rewinder的"进度条"工具,可以被代理自主使用。这使得代理能够重新访问任何视频细节,从而获取必要的信息。
+
+
+
+
+
+更多详细信息,请查看我们的论文:**[OmAgent: 基于任务分治的复杂视频理解多模态代理框架](https://arxiv.org/abs/2406.16620)**
+
+## 🛠️ 安装方法
+- python >= 3.10
+- 安装omagent_core
+ ```bash
+ cd omagent-core
+ pip install -e .
+ ```
+- 其他依赖
+ ```bash
+ cd ..
+ pip install -r requirements.txt
+ ```
+
+## 🚀 快速开始
+
+### 通用任务处理
+1. 创建配置文件并设置必要的环境变量
+ ```shell
+ cd workflows/general && vim config.yaml
+ ```
+
+ | 配置名称 | 用途 |
+ |------------------------|----------------------------------------------------------------------------------------|
+ | custom_openai_endpoint | 调用OpenAI GPT或其他MLLM的API地址,格式:```{custom_openai_endpoint}/chat/completions``` |
+ | custom_openai_key | MLLM提供商提供的api_key |
+ | bing_api_key | Bing的api key,用于网络搜索 |
+
+2. 设置```run.py```
+ ```python
+ def run_agent(task):
+ logging.init_logger("omagent", "omagent", level="INFO")
+ registry.import_module(project_root=Path(__file__).parent, custom=["./engine"])
+ bot_builder = Builder.from_file("workflows/general") # 通用任务处理工作流配置目录
+ input = DnCInterface(bot_id="1", task=AgentTask(id=0, task=task))
+
+ bot_builder.run_bot(input)
+ return input.last_output
+
+
+ if __name__ == "__main__":
+ run_agent("您的查询") # 输入您的查询
+ ```
+3. 运行```python run.py```启动OmAgent。
+
+### 视频理解任务
+#### 环境准备
+- **```可选```** OmAgent默认使用Milvus Lite作为向量数据库来存储向量数据。如果您希望使用完整的Milvus服务,可以使用docker部署[milvus向量数据库](https://milvus.io/docs/install_standalone-docker.md)。向量数据库用于存储视频特征向量,并根据查询检索相关向量以减少MLLM计算。未安装docker?请参考[docker安装指南](https://docs.docker.com/get-docker/)。
+ ```shell
+ # 下载milvus启动脚本
+ curl -sfL https://raw.githubusercontent.com/milvus-io/milvus/master/scripts/standalone_embed.sh -o standalone_embed.sh
+ # 以独立模式启动milvus
+ bash standalone_embed.sh start
+ ```
+ 部署后填写相关配置信息```workflows/video_understanding/config.yml```
+
+- **```可选```** 配置人脸识别算法。人脸识别算法可以作为工具被代理调用,但这是可选的。您可以通过修改```workflows/video_understanding/tools/video_tools.json```配置文件并删除FaceRecognition部分来禁用此功能。默认的人脸识别数据库存储在```data/face_db```目录中,不同的文件夹对应不同的个人。
+
+- **```可选```** 开放词汇检测(OVD)服务,用于增强OmAgent识别各种物体的能力。OVD工具依赖于此服务,但这是可选的。您可以按以下步骤禁用OVD工具。从```workflows/video_understanding/tools/video_tools.json```中删除以下内容:
+ ```json
+ {
+ "name": "ObjectDetection",
+ "ovd_endpoint": "$",
+ "model_id": "$"
+ }
+ ```
+
+ 如果使用ovd工具,我们使用[OmDet](https://github.com/om-ai-lab/OmDet/tree/main)进行演示。
+ 1. 根据[OmDet安装指南](https://github.com/om-ai-lab/OmDet/blob/main/install.md)安装OmDet及其环境。
+ 2. 安装将OmDet推理转换为API调用的依赖
+ ```text
+ pip install pydantic fastapi uvicorn
+ ```
+ 3. 创建```wsgi.py```文件以将OmDet推理暴露为API
+ ```shell
+ cd OmDet && vim wsgi.py
+ ```
+ 将[OmDet推理API代码](docs/ovd_api_doc.md)复制到wsgi.py
+ 4. 启动OmDet推理API,默认端口为8000
+ ```shell
+ python wsgi.py
+ ```
+- 下载一些有趣的视频
+
+#### 运行准备
+1. 创建配置文件并设置必要的环境变量
+ ```shell
+ cd workflows/video_understanding && vim config.yaml
+ ```
+2. 配置MLLM和工具的API地址和API密钥。
+
+ | 配置名称 | 用途 |
+ |------------------------|-----------------------------------------------------------------------------------------|
+ | custom_openai_endpoint | 调用OpenAI GPT或其他MLLM的API地址,格式:```{custom_openai_endpoint}/chat/completions``` |
+ | custom_openai_key | 相应API提供商提供的api_key |
+ | bing_api_key | Bing的api key,用于网络搜索 |
+ | ovd_endpoint | ovd工具API地址。如果使用OmDet,地址应为```http://host:8000/inf_predict``` |
+ | ovd_model_id | ovd工具使用的模型ID。如果使用OmDet,模型ID应为```OmDet-Turbo_tiny_SWIN_T``` |
+
+2. 设置```run.py```
+ ```python
+ def run_agent(task):
+ logging.init_logger("omagent", "omagent", level="INFO")
+ registry.import_module(project_root=Path(__file__).parent, custom=["./engine"])
+ bot_builder = Builder.from_file("workflows/video_understanding") # 视频理解任务工作流配置目录
+ input = DnCInterface(bot_id="1", task=AgentTask(id=0, task=task))
+
+ bot_builder.run_bot(input)
+ return input.last_output
+
+
+ if __name__ == "__main__":
+ run_agent("") # 您将在控制台中被提示输入查询
+ ```
+3. 运行```python run.py```启动OmAgent。输入您想要处理的视频路径,稍等片刻,然后输入您的查询,OmAgent将根据查询作出回答。
+
+## 🔗 相关工作
+如果您对多模态算法、大语言模型和代理技术感兴趣,我们邀请您深入了解我们的研究工作:
+🔆 [如何评估检测的泛化能力?全面开放词汇检测基准](https://arxiv.org/abs/2308.13177) (AAAI24)
+🏠 [GitHub仓库](https://github.com/om-ai-lab/OVDEval/tree/main)
+
+🔆 [OmDet:具有多模态检测网络的大规模视觉-语言多数据集预训练](https://ietresearch.onlinelibrary.wiley.com/doi/full/10.1049/cvi2.12268) (IET Computer Vision)
+🏠 [Github仓库](https://github.com/om-ai-lab/OmDet)
+
+## ⭐️ 引用
+
+如果您觉得我们的仓库有帮助,请引用我们的论文:
+```angular2
+@article{zhang2024omagent,
+ title={OmAgent: A Multi-modal Agent Framework for Complex Video Understanding with Task Divide-and-Conquer},
+ author={Zhang, Lu and Zhao, Tiancheng and Ying, Heting and Ma, Yibo and Lee, Kyusong},
+ journal={arXiv preprint arXiv:2406.16620},
+ year={2024}
+}
+```