kewei 49bd1bccf2 add mamba | 4 月之前 | |
---|---|---|
.. | ||
README.md | 4 月之前 | |
demo.ipynb | 4 月之前 | |
model.py | 4 月之前 |
Mamba在一个PyTorch文件中的简单、极简实现。
特点:
不包括:
参见demo.ipynb以获取提示完成的示例。
from model import Mamba
from transformers import AutoTokenizer
model = Mamba.from_pretrained('state-spaces/mamba-370m')
tokenizer = AutoTokenizer.from_pretrained('EleutherAI/gpt-neox-20b')
generate(model, tokenizer, 'Mamba is the')
Mamba 是世界上最长的毒蛇,估计长度超过150米。由于其巨大的体型和剧毒的咬合力,Mamba通过刺伤受害者来杀人(这比单次咬合的刺痛感更强,但效果更差)
150米……🫢 可怕!
Mamba架构由Albert Gu和Tri Dao在Mamba: Linear-Time Sequence Modeling with Selective State Spaces中提出。