참고
이 README는 GPT 번역으로 생성되었습니다 (이 프로젝트의 플러그인에 의해 구현됨) . 100% 신뢰할 수 없으므로 번역 결과를 주의 깊게 검토하십시오.
2023.11.7: 종속성을 설치할 때,
requirements.txt
에 지정된 버전을 선택하십시오. 설치 명령어:pip install -r requirements.txt
.
이 프로젝트가 마음에 드신다면, Star를 부탁드립니다. 편리한 단축키나 플러그인을 발견하셨다면 Pull Request를 환영합니다!
GPT를 사용하여 이 프로젝트를 임의의 언어로 번역하려면 multi_language.py
를 읽고 실행하십시오 (실험적).
참고
강조 표시된 플러그인 (버튼)만 파일을 읽을 수 있습니다. 일부 플러그인은 플러그인 영역의 드롭다운 메뉴에 있습니다. 또한 새로운 플러그인에 대한 모든 PR을 환영하며, 이를 가장 우선적으로 처리합니다.
이 프로젝트의 각 파일의 기능은 자체 분석 보고서
self_analysis.md
에서 자세히 설명되어 있습니다. 버전이 반복됨에 따라, 관련 기능 플러그인을 언제든지 클릭하여 GPT를 호출하여 프로젝트의 자체 분석 보고서를 다시 생성할 수 있습니다. 자주 묻는 질문은위키
를 참조하십시오. 일반적인 설치 방법 | 원클릭 설치 스크립트 | 설정 설명서이 프로젝트는 ChatGLM 등 대형 언어 모델 (ChatGLM 등) 실행을 지원하고 권장합니다. 여러 개의 API 키를 동시에 사용할 수 있으며, 구성 파일에
API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"
와 같이 입력할 수 있습니다.API_KEY
를 일시적으로 변경해야 하는 경우, 입력 영역에 임시API_KEY
를 입력한 다음 Enter 키를 누르면 적용됩니다.
1d7fcddd
-815d-40ee-af60-baf488a199
.png)의 수식을 동시에 표시하며, 수식 및 코드 하이라이트 지원
⭐AutoGen multi-agent 플러그인 | [플러그인] Microsoft AutoGen을 활용하여 여러 개의 에이전트가 지능적으로 발생하는 가능성을 탐색하세요!
다크 모드 주제 지원 | 브라우저의 URL 뒤에 ```/?__theme=dark```를 추가하여 다크 모드로 전환하세요.
[다양한 LLM 모델](https://www.bilibili.com/video/BV1wT411p7yf) 지원 | GPT3.5, GPT4, [Tsinghua ChatGLM2](https://github.com/THUDM/ChatGLM2-6B), [Fudan MOSS](https://github.com/OpenLMLab/MOSS)을 함께 사용하는 느낌은 좋을 것입니다, 그렇지 않습니까?
⭐ChatGLM2 fine-tuned 모델 | ChatGLM2 fine-tuned 모델 로드를 지원하며, ChatGLM2 fine-tuned 보조 플러그인 제공
더 많은 LLM 모델 연결, [huggingface 배포](https://huggingface.co/spaces/qingxu98/gpt-academic) 지원 | Newbing 인터페이스(신 밍), Tsinghua [Jittorllms](https://github.com/Jittor/JittorLLMs) 도입, [LLaMA](https://github.com/facebookresearch/llama)와 [Pangu-alpha](https://openi.org.cn/pangu/)를 지원합니다.
⭐[void-terminal](https://github.com/binary-husky/void-terminal) 패키지 | GUI에서 독립, Python에서 이 프로젝트의 모든 함수 플러그인을 직접 호출 (개발 중)
⭐Void 터미널 플러그인 | [플러그인] 자연어로 이 프로젝트의 다른 플러그인을 직접 영속합니다.
기타 새로운 기능 소개 (이미지 생성 등) …… | 본 문서 맨 끝 참조 ……
새로운 인터페이스(config.py
의 LAYOUT 옵션 수정으로 "왼쪽-오른쪽 레이아웃"과 "위-아래 레이아웃"을 전환할 수 있음)
모든 버튼은 functional.py를 동적으로 읽어 생성되므로 원하는대로 사용자 정의 기능을 추가할 수 있으며 클립 보드를 해제할 수 있습니다.
문체 개선/오류 수정
If the output contains equations, they will be displayed in both tex format and rendered format for easy copying and reading.
Don't feel like looking at the project code? Just give it to ChatGPT and let it dazzle you.
Mix and match multiple powerful language models (ChatGLM + OpenAI-GPT3.5 + API2D-GPT4)
Download the project
git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
In config.py
, configure the API KEY and other settings, click here to view special network environment configuration methods. Wiki page。
" The program will first check if there is a confidential configuration file named config_private.py
and use its configuration to override the configuration with the same name in config.py
. If you can understand this reading logic, we strongly recommend that you create a new configuration file named config_private.py
next to config.py
and move (copy) the configuration from config.py
to config_private.py
(only copy the modified configuration items). "
" You can configure the project through environment variables
. The format of the environment variables can be found in the docker-compose.yml
file or our Wiki page. The priority of the configuration reading is: environment variables
> config_private.py
> config.py
. "
Install dependencies ```sh
python -m pip install -r requirements.txt
conda create -n gptac_venv python=3.11 # Create an Anaconda environment conda activate gptac_venv # Activate the Anaconda environment python -m pip install -r requirements.txt # This step is the same as the pip installation step ```
[Optional Step] If you need support for Tsinghua ChatGLM2/Fudan MOSS as the backend, you need to install additional dependencies (Prerequisites: Familiar with Python + Have used Pytorch + Sufficient computer configuration):Click here to expand if you need support for Tsinghua ChatGLM2/Fudan MOSS/RWKV backend
# [Optional Step I] Support for Tsinghua ChatGLM2. Note for Tsinghua ChatGLM: If you encounter the error "Call ChatGLM fail cannot load ChatGLM parameters", refer to the following: 1: The default installation above is torch+cpu version. To use cuda, uninstall torch and reinstall torch+cuda; 2: If you cannot load the model due to insufficient computer configuration, you can modify the model precision in request_llm/bridge_chatglm.py, change AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) to AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
python -m pip install -r request_llms/requirements_chatglm.txt
# [Optional Step II] Support for Fudan MOSS
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # When executing this line of code, make sure you are in the project root path
# [Optional Step III] Support for RWKV Runner
Refer to the wiki: https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner
# [Optional Step IV] Make sure that the AVAIL_LLM_MODELS in the config.py configuration file includes the expected models. The currently supported models are as follows (the jittorllms series only supports the docker solution):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss"] # + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
Run
python main.py
# Modify docker-compose.yml, keep scheme 0 and delete the others. Then run:
docker-compose up
ChatGPT+Random Quotes+Wikipedia Summary+Spark and other online models (recommended for most people)
# Modify docker-compose.yml, keep scheme 1 and delete the others. Then run:
docker-compose up
P.S. If you need the Latex plugin feature, please refer to the Wiki. Additionally, you can also use scheme 4 or scheme 0 directly to get the Latex feature.
# Modify docker-compose.yml, keep scheme 2 and delete the others. Then run:
docker-compose up
One-click run script for Windows. Windows users who are completely unfamiliar with the Python environment can download the one-click run script without local models from the Release section. The script contribution comes from oobabooga.
Use third-party APIs, Azure, etc., Random Quotes, Spark, etc., see the Wiki page.
Pitfall guide for remote deployment on cloud servers. Please visit the cloud server remote deployment wiki
Some new deployment platforms or methods
http://localhost/subpath
). Please refer to FastAPI running instructions임의의 텍스트 편집기로 core_functional.py
파일을 열고 다음과 같은 항목을 추가한 다음 프로그램을 다시 시작하십시오. (이미 버튼이 있는 경우에는 접두사와 접미사를 실시간으로 수정할 수 있으므로 프로그램을 다시 시작할 필요가 없습니다.)
예시:
"초급영문 번역": {
# 접두사, 입력 내용 앞에 추가됩니다. 예를 들어 요구 사항을 설명하는 데 사용됩니다. 예를 들어 번역, 코드 설명, 교정 등
"Prefix": "다음 내용을 한국어로 번역하고 전문 용어에 대한 설명을 적용한 마크다운 표를 사용하세요:\n\n",
# 접미사, 입력 내용 뒤에 추가됩니다. 예를 들어 접두사와 함께 입력 내용을 따옴표로 감쌀 수 있습니다.
"Suffix": "",
},
원하는 작업을 수행하기 위해 능력있는 함수 플러그인을 작성하세요. 이 프로젝트의 플러그인 작성 및 디버깅은 난이도가 낮으며, 일정한 Python 기본 지식만 있으면 우리가 제공하는 템플릿을 본따서 고유한 플러그인 기능을 구현할 수 있습니다. 자세한 내용은 함수 플러그인 가이드를 참조하세요.
대화 저장 기능. 플러그인 영역에서 '현재 대화 저장'을 호출하여 현재 대화를 볼 수 있고, html 파일을 복구할 수 있습니다. 또한 플러그인 영역에서 '대화 기록 불러오기'를 호출하여 이전 대화를 복원할 수 있습니다. 팁: 파일을 지정하지 않고 '대화 기록 불러오기'를 바로 클릭하면 이전 html 기록 캐시를 볼 수 있습니다.
⭐Latex/Arxiv 논문 번역 기능⭐
빈 터미널 (자연어 입력에서 사용자 의도 이해 + 자동 플러그인 호출)
모듈화된 기능 디자인, 간단한 인터페이스로 강력한 기능 제공
다른 오픈 소스 프로젝트 번역
live2d의 작은 기능 추가 (기본 설정은 닫혀 있으며, config.py
를 수정해야 합니다.)
OpenAI 이미지 생성
OpenAI 오디오 분석 및 요약
Latex 전체 교정 오류
언어, 테마 변경
GPT Academic 개발자 QQ 그룹: 610599535
requirement.txt
를 사용하여 Gradio를 설치하십시오.THEME
옵션 (config.py
)을 수정하여 테마를 변경할 수 있습니다.
Chuanhu-Small-and-Beautiful
URLmaster
브랜치: 메인 브랜치, 안정 버전frontier
브랜치: 개발 브랜치, 테스트 버전``` 코드에서는 다른 우수한 프로젝트의 디자인을 많이 참고했습니다. 순서는 문제 없이 나열됩니다:
https://github.com/THUDM/ChatGLM2-6B
https://github.com/Jittor/JittorLLMs
https://github.com/kaixindelele/ChatPaper
https://github.com/acheong08/EdgeGPT
https://github.com/GaiZhenbiao/ChuanhuChatGPT
https://github.com/oobabooga/one-click-installers
https://github.com/gradio-app/gradio https://github.com/fghrsh/live2d_demo