Comments (8)
感谢意见。相关的东西我们都在坐着,争取让项目好用一些
from qwen.
1、按README的方法从头到尾实践后,无法启动。 2、下载flash-attention后,无法成功pip install csrc/layer_norm和pip install csrc/rotary。 2、无法流式问答。 4、无webUI。 5、没有说明如何加载本地模型,本地模型的路径应该填写在哪里?希望给个代码范本。 6、按说明安装环境后,在项目内打开CMD输入python medo.py加载后报错:device_map="auto" 总结:希望有更易读且全面的说明流程(起码按README的方法从头到尾实践后可运行)。 如果不改进可能:不利于推广,即使那么多人说你的好,却没有一个真正运行后的测评,也没有视频真正去讲解,因为没人能按你的readme运行得起来。
1、已经跑通没问题(HuggingFace版本)
2、无法编译flash-attention(非必要,但是V100上流式速度感人,希望能加速)
3、流式官方的cli_demo.py默认的
4、webui可以蹲一蹲开源的,估计已经有了
5、这个都不会建议放弃玩LLM这条路(不是)
6、大概率环境问题,希望能够掌握goole解决问题的能力,实在解决不了再请教网友
from qwen.
1、按README的方法从头到尾实践后,无法启动。
2、下载flash-attention后,无法成功pip install csrc/layer_norm和pip install csrc/rotary。
2、无法流式问答。
4、无webUI。
5、没有说明如何加载本地模型,本地模型的路径应该填写在哪里?希望给个代码范本。
6、按说明安装环境后,在项目内打开CMD输入python medo.py加载后报错:device_map="auto"
总结:希望有更易读且全面的说明流程(起码按README的方法从头到尾实践后可运行)。
如果不改进可能:不利于推广,即使那么多人说你的好,却没有一个真正运行后的测评,也没有视频真正去讲解,因为没人能按你的readme运行得起来。
可以看下前面的issues,不需要安装flash-attention也可以成功运行,webUI完全可以自己基于gradio搭建一个,开源的例子有很多,可以参考alpaca-lora项目,本地模型路径直接把AutoTokenizer和AutoModelForCausalLM的第一个参数替换成相应路径即可,这里建议阅读下transformers的源代码。device_map报错建议贴出具体报错信息,否则没有办法解决你的问题。
from qwen.
还有一点:量化模型代码中max_memory不知道哪来的:
model = AutoModelForCausalLM.from_pretrained(
args.checkpoint_path,
device_map="cuda:0",
quantization_config=quantization_config,
max_memory=max_memory,
trust_remote_code=True,
).eval()
from qwen.
我也碰见了,max_memory不知道如何设置。
from qwen.
我也碰见了,max_memory不知道如何设置。
解决了没有啊,我也碰到了
from qwen.
我也碰见了,max_memory不知道如何设置。
解决了没有啊,我也碰到了
直接注释掉“max_memory=max_memory,”这行吧
from qwen.
我也碰见了,max_memory不知道如何设置。
解决了没有啊,我也碰到了
直接注释掉“max_memory=max_memory,”这行吧
注释之后,还是会爆显存,我用了modelscope一样的代码就不爆显存,不知道什么原因...
from qwen.
Related Issues (20)
- [BUG] <title>batch_infer报错:'tuple' object has no attribute 'dtype' HOT 2
- 如何添加`LogitsProcessor`控制结果输出?
- [BUG] <title>lora微调loss异常? HOT 5
- tokenizer.decoder 抛出'utf-8' codec can't decode bytes in position 1-2: unexpected end of data异常 HOT 2
- [BUG] lora微调后,合并成一个模型。这种方式如何加载且推理 HOT 4
- [BUG] Qwen/Qwen-72B-Chat-Int8,不能多GPU并行计算 HOT 1
- Qwen/eval中的评测CEval和CMMLU,开大推理的batchsize评测指标会显著降低 HOT 1
- 请问基于qwen-72b-chat,基于怎样的配置可以在一台4090上训练起来? HOT 4
- 💡 [REQUEST] - <title> 关于lora 模型合并的几个问题 HOT 3
- [BUG] <关于model.generate时发现的源码错误> HOT 2
- [BUG] <Qwen-14B-Chat 输入长文本时无输出结果> HOT 5
- [BUG] Function Calling 示例有错误,最新的 openai sdk 运行时提示 api 已经废弃 HOT 1
- 请问哪里可以找到qwen用于vllm的jinja template? HOT 1
- [BUG] <title>执行eval中的eval_plugin进行评测 有一个agent从huggingface_hub拉包错误 HOT 1
- 请问可以使用高通的npu进行部署和推理吗? HOT 1
- 微调完成后使用llama_factory的vllm和qwen官方的vllm部署方式启动返回的不一样 HOT 1
- 💡 [REQUEST] - <使用ollama来调用qwen:14B时,怎么设置输出文本长度呢> HOT 1
- [BUG] <title>fastchat + vLLM +OpenAI API 调用qwen模型,数据不需要预先处理吗 HOT 1
- 本地部署后,运行很慢啊 HOT 3
- 请问下 2.5什么时候开源呀? HOT 1
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from qwen.