Nota
Questo README è stato tradotto da GPT (implementato da un plugin di questo progetto) e non è al 100% affidabile, per favore valuta attentamente i risultati della traduzione.
2023.11.7: Quando installi le dipendenze, seleziona le versioni specificate nel file
requirements.txt
. Comando di installazione:pip install -r requirements.txt
.
Se ti piace questo progetto, per favore dagli una stella; se hai idee o plugin utili, fai una pull request!
Se ti piace questo progetto, dagli una stella.
Per tradurre questo progetto in qualsiasi lingua con GPT, leggi ed esegui multi_language.py
(sperimentale).
Nota
Fai attenzione che solo i plugin (pulsanti) evidenziati supportano la lettura dei file, alcuni plugin si trovano nel menu a tendina nell'area dei plugin. Inoltre, accogliamo e gestiamo con massima priorità qualsiasi nuovo plugin attraverso pull request.
Le funzioni di ogni file in questo progetto sono descritte in dettaglio nel rapporto di traduzione automatica del progetto
self_analysis.md
. Con l'iterazione della versione, puoi anche fare clic sui plugin delle funzioni rilevanti in qualsiasi momento per richiamare GPT e rigenerare il rapporto di auto-analisi del progetto. Domande frequentiwiki
| Metodo di installazione standard | Script di installazione one-click | Configurazione。Questo progetto è compatibile e incoraggia l'uso di modelli di linguaggio di grandi dimensioni nazionali, come ChatGLM. Supporto per la coesistenza di più chiavi API, puoi compilare nel file di configurazione come
API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"
. Quando è necessario sostituire temporaneamenteAPI_KEY
, inserisci temporaneamenteAPI_KEY
nell'area di input e premi Invio per confermare.
Nuovo layout (modifica l'opzione LAYOUT in config.py
per passare tra "layout sinistra / destra" e "layout sopra / sotto")
Tutti i pulsanti vengono generati dinamicamente leggendo functional.py
, puoi aggiungere liberamente funzionalità personalizzate, liberando la clipboard
Revisione / correzione
Se l'output contiene formule, saranno visualizzate sia in formato tex che in formato renderizzato per facilitarne la copia e la lettura.
Non hai voglia di guardare il codice del progetto? Mostralo direttamente al chatgpt in bocca.
Chiamate miste di modelli di grandi dimensioni (ChatGLM + OpenAI-GPT3.5 + API2D-GPT4)
Scarica il progetto
git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
Nel file config.py
, configura l'API KEY e altre impostazioni, clicca qui per vedere come configurare l'API in ambienti di rete speciali . Pagina Wiki.
「 Il programma controllerà prima se esiste un file di configurazione privata chiamato config_private.py
e utilizzerà le configurazioni in esso contenute per sovrascrivere le configurazioni con lo stesso nome in config.py
. Se comprendi questa logica di lettura, ti consigliamo vivamente di creare un nuovo file di configurazione chiamato config_private.py
accanto a config.py
e spostare (copiare) le configurazioni da config.py
a config_private.py
(basta copiare le voci di configurazione che hai modificato). 」
「 Supporta la configurazione del progetto tramite variabili d'ambiente
, il formato di scrittura delle variabili d'ambiente è descritto nel file docker-compose.yml
o nella nostra pagina Wiki priorità di lettura della configurazione: variabili d'ambiente
> config_private.py
> config.py
. 」
Installa le dipendenze ```sh
python -m pip install -r requirements.txt
conda create -n gptac_venv python=3.11 # Crea l'ambiente anaconda conda activate gptac_venv # Attiva l'ambiente anaconda python -m pip install -r requirements.txt # Questo passaggio è identico alla procedura di installazione con pip ```
[Optional] Se desideri utilizzare ChatGLM2 di Tsinghua/Fudan MOSS come backend, è necessario installare ulteriori dipendenze (Requisiti: conoscenza di Python + esperienza con Pytorch + hardware potente):Se desideri utilizzare il backend di ChatGLM2 di Tsinghua/Fudan MOSS/RWKV, fai clic per espandere
# [Optional Step I] Supporto per ChatGLM2 di Tsinghua. Note di ChatGLM di Tsinghua: Se si verifica l'errore "Call ChatGLM fail non può caricare i parametri di ChatGLM", fare riferimento a quanto segue: 1: L'installazione predefinita è la versione torch+cpu, per usare cuda è necessario disinstallare torch ed installare nuovamente la versione con torch+cuda; 2: Se il modello non può essere caricato a causa di una configurazione insufficiente, è possibile modificare la precisione del modello in request_llm/bridge_chatglm.py, sostituendo AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) con AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
python -m pip install -r request_llms/requirements_chatglm.txt
# [Optional Step II] Supporto per Fudan MOSS
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # Attenzione: eseguire questo comando nella directory principale del progetto
# [Optional Step III] Supporto per RWKV Runner
Consulta il Wiki: https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner
# [Optional Step IV] Assicurati che il file di configurazione config.py includa i modelli desiderati. Di seguito sono elencati i modelli attualmente supportati (gli llm di jittorllms supportano solo la soluzione Docker):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss", "jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
Esegui
python main.py
# Modifica il file docker-compose.yml: mantieni solo la configurazione 0 e rimuovi le altre configurazioni. Avvia il seguente comando:
docker-compose up
ChatGPT + Wenxin Yiyu (Poem) + Spark, solo modelli online (Consigliato per la maggior parte delle persone)
# Modifica il file docker-compose.yml: mantieni solo la configurazione 1 e rimuovi le altre configurazioni. Avvia il seguente comando:
docker-compose up
P.S. Se hai bisogno del plugin LaTeX, consulta la pagina Wiki. In alternativa, puoi utilizzare le configurazioni 4 o 0 direttamente per ottenere questa funzionalità.
# Modifica il file docker-compose.yml: mantieni solo la configurazione 2 e rimuovi le altre configurazioni. Avvia il seguente comando:
docker-compose up
Script di esecuzione con un clic per Windows. Se non conosci affatto l'ambiente python in Windows, puoi scaricare uno script di esecuzione con un clic dalla sezione Release per installare la versione che non richiede modelli locali. Lo script è stato fornito da oobabooga.
Utilizzo di API di terze parti, Azure, Wenxin Yiyu (Poem), Xinghuo, ecc. vedi pagina Wiki
Guida all'installazione del server cloud remoto. Visita la pagina Wiki sull'installazione del server cloud remoto.
Altre nuove piattaforme o metodi di distribuzione:
http://localhost/subpath
). Vedi istruzioni FastAPI per maggiori dettagli.Apri core_functional.py
con qualsiasi editor di testo e aggiungi le seguenti voci, quindi riavvia il programma. (Se il pulsante esiste già, sia il prefisso che il suffisso possono essere modificati a caldo senza la necessità di riavviare il programma.)
Ad esempio,
"Traduzione avanzata Cinese-Inglese": {
# Prefisso, sarà aggiunto prima del tuo input. Ad esempio, utilizzato per descrivere la tua richiesta, come traduzione, spiegazione del codice, rifinitura, ecc.
"Prefisso": "Si prega di tradurre il seguente testo in cinese e fornire spiegazione per i termini tecnici utilizzati, utilizzando una tabella in markdown uno per uno:\n\n",
# Suffisso, sarà aggiunto dopo il tuo input. Ad esempio, in combinazione con il prefisso, puoi circondare il tuo input con virgolette.
"Suffisso": "",
},
Scrivi potentissimi plugin di funzioni per eseguire qualsiasi compito che desideri, sia che tu lo pensi o meno. La scrittura di plugin per questo progetto è facile e richiede solo conoscenze di base di Python. Puoi seguire il Guida ai Plugin di Funzione per maggiori dettagli.
Funzionalità di salvataggio della conversazione. Chiamare Salva la conversazione corrente
nell'area del plugin per salvare la conversazione corrente come un file html leggibile e ripristinabile.
Inoltre, nella stessa area del plugin (menu a tendina) chiamare Carica la cronologia della conversazione
per ripristinare una conversazione precedente.
Suggerimento: fare clic su Carica la cronologia della conversazione
senza specificare un file per visualizzare la tua cronologia di archiviazione HTML.
⭐ Funzionalità di traduzione articoli Latex/Arxiv ⭐
Terminale vuoto (Comprensione dell'intento dell'utente dai testi liberi + Chiamata automatica di altri plugin)
Design modulare, interfacce semplici che supportano funzionalità potenti
Traduzione e interpretazione di altri progetti open source
Funzionalità leggera per live2d (disabilitata per impostazione predefinita, richiede modifica di config.py
)
Generazione di immagini di OpenAI
Elaborazione e riepilogo audio di OpenAI
Correzione totale del testo di Latex
Cambio linguaggio e tema
GPT Academic Developer QQ Group: 610599535
requirement.txt
Il tema può essere modificato modificando l'opzione THEME
(config.py)
Chuanhu-Small-and-Beautiful
Websitemaster
branch: branch principale, versione stabilefrontier
branch: branch di sviluppo, versione di test``` Nel codice sono state utilizzate diverse idee dagli altri progetti, senza un ordine specifico:
https://github.com/THUDM/ChatGLM2-6B
https://github.com/Jittor/JittorLLMs
https://github.com/kaixindelele/ChatPaper
https://github.com/acheong08/EdgeGPT
https://github.com/GaiZhenbiao/ChuanhuChatGPT
https://github.com/oobabooga/one-click-installers
https://github.com/gradio-app/gradio https://github.com/fghrsh/live2d_demo