解决ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported
  Wv2PRSlQRjkP 2023年11月02日 76 0

LLaMA大模型是元宇宙平台公司(Meta)研发的大语言模型。

解决ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported_LLaMA

问题:

load LLaMA 7b的weights的时候报错:

ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported.

出现原因:

新版transformers里面llama的tokenizer命名为LlamaTokenizer

但是旧的模型里面的tokenizer叫LLaMATokenizer

解决方案:

1、改动transformers源码中三个位置:

utils/dummy_sentencepiece_objects.py

models/auto/tokenization_aotu.py

__init__.py

在这三个文件中找到LlamaTokenizer, 改为LLaMATokenizier

2、第1种方法需要改动的地方比较多,很可能改不全,导致依旧出现“ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported.”,另外一种简单的办法就是,找到llama-7b的模型,改动tokenizer_config.json文件,直接把"tokenizer_class": "LLaMATokenizer" 改为 "tokenizer_class": "LlamaTokenizer".

参考:

https://github.com/huggingface/transformers/issues/22222


【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月08日 0

暂无评论

推荐阅读
Wv2PRSlQRjkP