注意
此READMEはGPTによる翻訳で生成されました(このプロジェクトのプラグインによって実装されています)、翻訳結果は100%正確ではないため、注意してください。
2023年11月7日: 依存関係をインストールする際は、
requirements.txt
で指定されたバージョンを選択してください。 インストールコマンド:pip install -r requirements.txt
。
このプロジェクトが気に入った場合は、Starを付けてください。また、便利なショートカットキーまたはプラグインを作成した場合は、プルリクエストを歓迎します!
GPTを使用してこのプロジェクトを任意の言語に翻訳するには、multi_language.py
を読み込んで実行します(実験的な機能)。
注意
強調された プラグイン(ボタン)のみがファイルを読み込むことができることに注意してください。一部のプラグインは、プラグインエリアのドロップダウンメニューにあります。また、新しいプラグインのPRを歓迎し、最優先で対応します。
このプロジェクトの各ファイルの機能は、自己分析レポート
self_analysis.md
で詳しく説明されています。バージョンが進化するにつれて、関連する関数プラグインをクリックして、プロジェクトの自己分析レポートをGPTで再生成することもできます。よくある質問については、wiki
をご覧ください。標準的なインストール方法 | ワンクリックインストールスクリプト | 構成の説明。このプロジェクトは、ChatGLMなどの中国製の大規模言語モデルも互換性があり、試してみることを推奨しています。複数のAPIキーを共存させることができ、設定ファイルに
API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"
のように記入できます。API_KEY
を一時的に変更する必要がある場合は、入力エリアに一時的なAPI_KEY
を入力し、Enterキーを押して提出すると有効になります。
1d7fcddd
-815d-40ee-af60-baf488a199
.png)を同時に表示し、公式とコードのハイライトをサポートします
⭐AutoGenマルチエージェントプラグイン | [プラグイン] Microsoft AutoGenを利用して、マルチエージェントのインテリジェントなエマージェンスを探索します
ダーク[テーマ](https://github.com/binary-husky/gpt_academic/issues/173)を起動 | ブラウザのURLに```/?__theme=dark```を追加すると、ダークテーマに切り替えられます
[複数のLLMモデル](https://www.bilibili.com/video/BV1wT411p7yf)のサポート | GPT3.5、GPT4、[Tsinghua ChatGLM2](https://github.com/THUDM/ChatGLM2-6B)、[Fudan MOSS](https://github.com/OpenLMLab/MOSS)などを同時に使えるのは最高の感じですよね?
⭐ChatGLM2ファインチューニングモデル | ChatGLM2ファインチューニングモデルをロードして使用することができ、ChatGLM2ファインチューニングの補助プラグインが用意されています
さらなるLLMモデルの導入、[HuggingFaceデプロイのサポート](https://huggingface.co/spaces/qingxu98/gpt-academic) | Newbingインターフェース(新しいBing)の追加、Tsinghua [Jittorllms](https://github.com/Jittor/JittorLLMs)の導入、[LLaMA](https://github.com/facebookresearch/llama)および[盤古α](https://openi.org.cn/pangu/)のサポート
⭐[void-terminal](https://github.com/binary-husky/void-terminal) pipパッケージ | GUIから独立して、Pythonから直接このプロジェクトのすべての関数プラグインを呼び出せます(開発中)
⭐Void Terminalプラグイン | [プラグイン] 自然言語で、このプロジェクトの他のプラグインを直接実行します
その他の新機能の紹介(画像生成など)...... | 末尾をご覧ください ......
chatgpt
に広報口頭発表してもらえるよプロジェクトをダウンロード
git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
config.py
でAPIキーやその他の設定を設定します。特殊なネットワーク環境の設定方法については、こちらをクリックして確認してください。Wikiページも参照してください。
「プログラムは、config.py
と同じ場所にあるconfig_private.py
という名前のプライベート設定ファイルが存在するかどうかを優先的にチェックし、同じ名前の設定をコピーします。この読み込みロジックを理解できる場合、config.py
の横にconfig_private.py
という名前の新しい設定ファイルを作成し、config.py
の設定を転送(コピー)することを強くお勧めします(変更した設定項目だけをコピーします)。」
「プロジェクトを環境変数で設定することもサポートしています。環境変数の書式は、docker-compose.yml
ファイルやWikiページを参考にしてください。設定の優先度は、環境変数
> config_private.py
> config.py
の順です。」
依存関係をインストールする ```sh
python -m pip install -r requirements.txt
conda create -n gptac_venv python=3.11 # Anaconda環境を作成 conda activate gptac_venv # Anaconda環境をアクティベート python -m pip install -r requirements.txt # この手順はpipのインストール手順と同じです ```
【オプションステップ】 清華ChatGLM2/復旦MOSSをバックエンドとしてサポートする場合は、さらに追加の依存関係をインストールする必要があります(前提条件:Pythonに精通していて、PytorchとNVIDIA GPUを使用したことがあり、十分なコンピュータの構成を持っていること):清華ChatGLM2/復旦MOSS/RWKVがバックエンドとしてサポートされている場合、ここをクリックして展開してください
# 【オプションステップI】 清華ChatGLM2のサポートを追加する。 清華ChatGLM2に関する注意点: "Call ChatGLM fail 不能正常加载ChatGLM的参数" のエラーが発生した場合、次の手順を参照してください。 1: デフォルトでインストールされているのはtorch+cpu版です。CUDAを使用するにはtorchをアンインストールしてtorch+cuda版を再インストールする必要があります。 2: モデルをロードできない場合は、request_llm/bridge_chatglm.pyのモデル精度を変更できます。AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)をAutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)に変更します。
python -m pip install -r request_llms/requirements_chatglm.txt
# 【オプションステップII】 復旦MOSSのサポートを追加する
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # このコマンドを実行するときは、プロジェクトのルートパスである必要があります。
# 【オプションステップIII】 RWKV Runnerのサポートを追加する
Wikiを参照してください: https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner
# 【オプションステップIV】 config.py設定ファイルに、以下のすべてのモデルが含まれていることを確認します。以下のモデルがすべてサポートされています(jittorllmsはDockerのみサポートされています):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss"] # + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
実行する
python main.py
# docker-compose.ymlを編集し、スキーム0を残し、その他を削除してから実行する:
docker-compose up
# docker-compose.ymlを編集し、スキーム1を残し、その他を削除してから実行する:
docker-compose up
P.S. LaTeXプラグインの機能を使用する場合は、Wikiを参照してください。また、LaTeX機能を使用するためには、スキーム4またはスキーム0を直接使用することもできます。
# docker-compose.ymlを編集し、スキーム2を残し、その他を削除してから実行する:
docker-compose up
Windowsのワンクリック実行スクリプト。 Python環境に詳しくないWindowsユーザーは、リリースからワンクリック実行スクリプトをダウンロードして、ローカルモデルのないバージョンをインストールできます。 スクリプトの貢献者はoobaboogaです。
第三者のAPI、Azureなど、文心一言、星火などを使用するには、Wikiページを参照してください。
クラウドサーバーでのリモートデプロイの回避策ガイドを参照してください。 クラウドサーバーでのリモートデプロイの回避策ガイドwiki
その他の新しいデプロイプラットフォームや方法
http://localhost/subpath
)でFastAPIを実行する方法については、FastAPIの実行方法を参照してください。テキストエディタでcore_functional.py
を開き、次の項目を追加し、プログラムを再起動します。(ボタンが存在する場合、プレフィックスとサフィックスはホット変更に対応しており、プログラムを再起動せずに有効にすることができます。)
例:
"超级英译中": {
# プレフィックス、入力の前に追加されます。例えば、要求を記述するために使用されます。翻訳、コードの解説、校正など
"プレフィックス": "下記の内容を中国語に翻訳し、専門用語を一つずつマークダウンテーブルで解説してください:\n\n"、
# サフィックス、入力の後に追加されます。プレフィックスと一緒に使用して、入力内容を引用符で囲むことができます。
"サフィックス": ""、
}、
自分の望む任意のタスクを実行するために、強力な関数プラグインを作成できます。 このプロジェクトのプラグインの作成とデバッグの難易度は非常に低く、一定のPythonの基礎知識があれば、提供されたテンプレートを参考に自分自身のプラグイン機能を実装することができます。 詳細については、関数プラグインガイドを参照してください。
会話の保存機能。プラグインエリアで Save Current Conversation
を呼び出すだけで、現在の会話を読み取り可能で復旧可能なhtmlファイルとして保存できます。
また、プラグインエリア(ドロップダウンメニュー)で Load Conversation History Archive
を呼び出すことで、以前の会話を復元できます。
ヒント:ファイルを指定せずに Load Conversation History Archive
をクリックすると、履歴のhtmlアーカイブのキャッシュを表示することができます。
⭐Latex/Arxiv論文の翻訳機能⭐
ゼロのターミナル(自然言語入力からユーザの意図を理解+他のプラグインを自動的に呼び出す)
モジュール化された機能設計、シンプルなインターフェイスで強力な機能をサポートする
他のオープンソースプロジェクトの翻訳
live2dのデコレーション機能(デフォルトでは無効で、config.py
を変更する必要があります)
OpenAI画像生成
OpenAIオーディオ解析と要約
Latex全体の校正と修正
言語、テーマの切り替え
GPT Academic開発者QQグループ:610599535
-既知の問題
- 一部のブラウザ翻訳プラグインがこのソフトウェアのフロントエンドの実行を妨げる
- 公式Gradioには互換性の問題があり、必ず`requirement.txt`を使用してGradioをインストールしてください
THEME
オプション(config.py
)を変更することで、テーマを変更できます
Chuanhu-Small-and-Beautiful
リンクmaster
ブランチ:メインブランチ、安定版frontier
ブランチ:開発ブランチ、テスト版``` コードの中には、他の優れたプロジェクトのデザインを参考にしたものが多く含まれています。順序は問いません:
https://github.com/THUDM/ChatGLM2-6B
https://github.com/Jittor/JittorLLMs
https://github.com/kaixindelele/ChatPaper
https://github.com/acheong08/EdgeGPT
https://github.com/GaiZhenbiao/ChuanhuChatGPT
https://github.com/oobabooga/one-click-installers
https://github.com/gradio-app/gradio https://github.com/fghrsh/live2d_demo