Hinweis
Dieses README wurde mithilfe der GPT-Übersetzung (durch das Plugin dieses Projekts) erstellt und ist nicht zu 100 % zuverlässig. Bitte überprüfen Sie die Übersetzungsergebnisse sorgfältig.
- November 2023: Beim Installieren der Abhängigkeiten bitte nur die in der
requirements.txt
angegebenen Versionen auswählen. Installationsbefehl:pip install -r requirements.txt
.
Wenn Ihnen dieses Projekt gefällt, geben Sie ihm bitte einen Star. Wenn Sie praktische Tastenkombinationen oder Plugins entwickelt haben, sind Pull-Anfragen willkommen!
Wenn Ihnen dieses Projekt gefällt, geben Sie ihm bitte einen Star.
Um dieses Projekt mit GPT in eine beliebige Sprache zu übersetzen, lesen Sie multi_language.py
(experimentell).
Hinweis
Beachten Sie bitte, dass nur die mit hervorgehobenen Plugins (Schaltflächen) Dateien lesen können. Einige Plugins befinden sich im Drop-down-Menü des Plugin-Bereichs. Außerdem freuen wir uns über jede neue Plugin-PR mit höchster Priorität.
Die Funktionen jeder Datei in diesem Projekt sind im Selbstanalysebericht
self_analysis.md
ausführlich erläutert. Sie können jederzeit auf die relevanten Funktions-Plugins klicken und GPT aufrufen, um den Selbstanalysebericht des Projekts neu zu generieren. Häufig gestellte Fragen finden Sie imWiki
. Standardinstallationsmethode | Ein-Klick-Installationsskript | Konfigurationsanleitung.Dieses Projekt ist kompatibel mit und unterstützt auch die Verwendung von inländischen Sprachmodellen wie ChatGLM. Die gleichzeitige Verwendung mehrerer API-Schlüssel ist möglich, indem Sie sie in der Konfigurationsdatei wie folgt angeben:
API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"
. Wenn Sie denAPI_KEY
vorübergehend ändern möchten, geben Sie vorübergehend den temporärenAPI_KEY
im Eingabebereich ein und drücken Sie die Eingabetaste, um die Änderung wirksam werden zu lassen.
1d7fcddd
-815d-40ee-af60-baf488a199
.png)- als auch in gerenderten Formen an, unterstützt Formeln und Code-Hervorhebung
⭐AutoGen Multi-Agent Plugin | [Plugin] Erforscht die Möglichkeiten des emergenten Verhaltens von Multi-Agent-Systemen mit Microsoft AutoGen!
Start im Dark-Theme | Um das Dark-Theme zu aktivieren, fügen Sie ```/?__theme=dark``` am Ende der URL im Browser hinzu
[Mehrsprachige LLM-Modelle](https://www.bilibili.com/video/BV1wT411p7yf) unterstützt | Es ist sicherlich beeindruckend, von GPT3.5, GPT4, [ChatGLM2 der Tsinghua University](https://github.com/THUDM/ChatGLM2-6B), [MOSS der Fudan University](https://github.com/OpenLMLab/MOSS) bedient zu werden, oder?
⭐ChatGLM2 Feinabstimmungsmodell | Unterstützt das Laden von ChatGLM2-Feinabstimmungsmodellen und bietet Unterstützung für ChatGLM2-Feinabstimmungsassistenten
Integration weiterer LLM-Modelle, Unterstützung von [Huggingface-Deployment](https://huggingface.co/spaces/qingxu98/gpt-academic) | Hinzufügen der Newbing-Schnittstelle (neues Bing), Einführung der [Jittorllms der Tsinghua University](https://github.com/Jittor/JittorLLMs) zur Unterstützung von LLaMA und PanGu Alpha
⭐[void-terminal](https://github.com/binary-husky/void-terminal) Pip-Paket | Verwenden Sie das Projekt in Python direkt, indem Sie das gesamte Funktionsplugin verwenden (in Entwicklung)
⭐Void-Terminal-Plugin | [Plugin] Verwenden Sie natürliche Sprache, um andere Funktionen dieses Projekts direkt zu steuern
Weitere Funktionen anzeigen (z. B. Bildgenerierung) …… | Siehe das Ende dieses Dokuments ……
Neues Interface (Ändern Sie die LAYOUT-Option in der config.py
, um zwischen "Links-Rechts-Layout" und "Oben-Unten-Layout" zu wechseln)
Alle Schaltflächen werden dynamisch aus der functional.py
generiert und ermöglichen das beliebige Hinzufügen benutzerdefinierter Funktionen zur Befreiung der Zwischenablage.
Überarbeiten/Korrigieren
If the output contains formulas, they will be displayed in both tex format and rendering format for easy copying and reading.
Don't want to look at the project code? Show off the whole project directly in chatgpt's mouth.
Multiple large language models mixed calling (ChatGLM + OpenAI-GPT3.5 + API2D-GPT4)
Download the project
git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
In config.py
, configure API KEY and other settings, click to view special network environment configuration methods. Wiki page.
「 The program will first check if there is a confidential configuration file named config_private.py
and use its configuration to override the configuration with the same name in config.py
. If you understand this reading logic, we strongly recommend that you create a new configuration file named config_private.py
next to config.py
and move (copy) the configuration in config.py
to config_private.py
(only copy the configuration items that you have modified). 」
「 You can configure the project through environment variables
. The format of environment variables can refer to the docker-compose.yml
file or our Wiki page. The priority of configuration reading is: environment variables
> config_private.py
> config.py
. 」
Install dependencies ```sh
python -m pip install -r requirements.txt
conda create -n gptac_venv python=3.11 # Create an anaconda environment conda activate gptac_venv # Activate the anaconda environment python -m pip install -r requirements.txt # This step is the same as installing with pip ```
[Optional] If you need to support Tsinghua ChatGLM2/Fudan MOSS as the backend, you need to install additional dependencies (Prerequisites: Familiar with Python + Have used PyTorch + Strong computer configuration):If you need support for Tsinghua ChatGLM2/Fudan MOSS/RWKV as backend, please click to expand.
# [Optional Step I] Support Tsinghua ChatGLM2. Tsinghua ChatGLM note: If you encounter the error "Call ChatGLM fail cannot load ChatGLM parameters normally", refer to the following: 1: The default installation above is torch+cpu version. To use cuda, you need to uninstall torch and reinstall torch+cuda; 2: If you cannot load the model due to insufficient computer configuration, you can modify the model accuracy in request_llm/bridge_chatglm.py. Change AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) to AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
python -m pip install -r request_llms/requirements_chatglm.txt
# [Optional Step II] Support Fudan MOSS
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # When executing this line of code, you must be in the root path of the project
# [Optional Step III] Support RWKV Runner
Refer to the wiki: https://github.com/binary-husky/gpt_academic/wiki/Support-RWKV-Runner
# [Optional Step IV] Make sure the AVAIL_LLM_MODELS in config.py includes the expected models. The currently supported models are as follows (the jittorllms series only supports the docker solution at present):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss"] # + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
Run
python main.py
# Modify docker-compose.yml, keep solution 0 and delete other solutions. Then run:
docker-compose up
ChatGPT + Wenxin's words + spark and other online models (recommended for most people)
# Modify docker-compose.yml, keep solution 1 and delete other solutions. Then run:
docker-compose up
P.S. If you need the Latex plugin functionality, please refer to the Wiki. Also, you can directly use solution 4 or 0 to get the Latex functionality.
# Modify docker-compose.yml, keep solution 2 and delete other solutions. Then run:
docker-compose up
Windows One-Click Script. Windows users who are completely unfamiliar with the python environment can download the one-click script for installation without local models in the published Release. The script is contributed by oobabooga.
Use third-party APIs, Azure, Wenxin's words, Spark, etc., see Wiki page
Pit avoidance guide for cloud server remote deployment. Please visit the Cloud Server Remote Deployment Wiki
Some new deployment platforms or methods
http://localhost/subpath
). Please visit FastAPI Running InstructionsÖffnen Sie die Datei core_functional.py
mit einem beliebigen Texteditor und fügen Sie folgenden Eintrag hinzu. Starten Sie dann das Programm neu. (Wenn die Schaltfläche bereits vorhanden ist, können sowohl das Präfix als auch das Suffix schnell geändert werden, ohne dass das Programm neu gestartet werden muss.)
Beispiel:
"Übersetzung von Englisch nach Chinesisch": {
# Präfix, wird vor Ihrer Eingabe hinzugefügt. Zum Beispiel, um Ihre Anforderungen zu beschreiben, z.B. Übersetzen, Code erklären, verbessern usw.
"Präfix": "Bitte übersetzen Sie den folgenden Abschnitt ins Chinesische und erklären Sie dann jedes Fachwort in einer Markdown-Tabelle:\n\n",
# Suffix, wird nach Ihrer Eingabe hinzugefügt. Zum Beispiel, um Ihre Eingabe in Anführungszeichen zu setzen.
"Suffix": "",
},
Schreiben Sie leistungsstarke Funktionsplugins, um beliebige Aufgaben zu erledigen, die Sie wünschen oder nicht erwartet haben. Das Erstellen und Debuggen von Plugins in diesem Projekt ist einfach und erfordert nur Grundkenntnisse in Python. Sie können unser bereitgestelltes Template verwenden, um Ihre eigene Plugin-Funktion zu implementieren. Weitere Informationen finden Sie in der Plugin-Anleitung.
Dialogspeicherungsfunktion. Rufen Sie im Funktionspluginbereich "Aktuellen Dialog speichern" auf, um den aktuellen Dialog als lesbare und wiederherstellbare HTML-Datei zu speichern. Darüber hinaus können Sie im Funktionspluginbereich (Dropdown-Menü) "Dialoghistorie laden" aufrufen, um frühere Sitzungen wiederherzustellen. Tipp: Wenn kein Dateiname angegeben ist, können Sie direkt auf "Dialoghistorie laden" klicken, um den Verlauf des HTML-Archivs anzuzeigen.
⭐ Latex/Arxiv-Papierübersetzungsfunktion ⭐
Leere Terminaloberfläche (Verständnis der Benutzerabsicht und automatischer Aufruf anderer Plugins aus natürlicher Spracheingabe)
Modulare Funktionsgestaltung mit einfacher Schnittstelle für leistungsstarke Funktionen
Übersetzung und Lösung anderer Open-Source-Projekte
Funktionen zur Dekoration von live2d (standardmäßig deaktiviert, config.py muss geändert werden)
OpenAI-Bildgenerierung
OpenAI-Audioanalyse und Zusammenfassung
Latex-Volltextkorrektur
Sprach- und Themenwechsel
Entwickler-QQ-Gruppe von GPT Academic: 610599535
requirement.txt
.Sie können das Theme ändern, indem Sie die Option THEME
(config.py) ändern.
Chuanhu-Small-and-Beautiful
Linkmaster
Branch: Hauptzweig, stabile Versionfrontier
Branch: Entwicklungsbranch, Testversion``` Der Code basiert auf dem Design anderer herausragender Projekte. Die Reihenfolge ist beliebig:
https://github.com/THUDM/ChatGLM2-6B
https://github.com/Jittor/JittorLLMs
https://github.com/kaixindelele/ChatPaper
https://github.com/acheong08/EdgeGPT
https://github.com/GaiZhenbiao/ChuanhuChatGPT
https://github.com/oobabooga/one-click-installers
https://github.com/gradio-app/gradio https://github.com/fghrsh/live2d_demo