Comments (15)
我也遇到了类似的问题,对于作者的代码去掉peft的部分,是不能直接运行的。
from chatglm-tuning.
我在colab上的p100也有这个问题,但是换成了T4后就没了 , 不确定是不是硬件问题
from chatglm-tuning.
我在colab上的p100也有这个问题,但是换成了T4后就没了 , 不确定是不是硬件问题
大佬是直接去掉peft的部分试的吗
from chatglm-tuning.
我在colab上的p100也有这个问题,但是换成了T4后就没了 , 不确定是不是硬件问题
难道因为4090太新了?我已经升级到pytorch 2.0了,想不通还要怎么解决,我如果直接把allow_fp16 = True,会导致loss=nan,脑壳疼。
from chatglm-tuning.
我在colab上的p100也有这个问题,但是换成了T4后就没了 , 不确定是不是硬件问题
难道因为4090太新了?我已经升级到pytorch 2.0了,想不通还要怎么解决,我如果直接把allow_fp16 = True,会导致loss=nan,脑壳疼。
这种情况可能是环境依赖问题 🤣 我在4090上测过没这问题
from chatglm-tuning.
另外pytorch2.0我还没试过,目前用的1.13.1
from chatglm-tuning.
你跑的是带不带lora的啊?我用你的标准脚本没问题,但是我砍掉了lora那部分,也就是peft的部分,就不行了。。。
from chatglm-tuning.
你跑的是带不带lora的啊?我用你的标准脚本没问题,但是我砍掉了lora那部分,也就是peft的部分,就不行了。。。
我这样跑下来是没有问题的: https://github.com/mymusise/ChatGLM-Tuning/blob/master/examples/finetune.ipynb
from chatglm-tuning.
噢,抱歉,你说的是直接finetune原模型,这个我没试过,直接finetune可以参考别的repo:https://github.com/ssbuild/chatglm_finetuning
from chatglm-tuning.
嗯,那个repo我看了,话说,你的新版本好像显存占用增加了,我以前可以跑bs = 2现在只能跑1了,同样4090
from chatglm-tuning.
你跑的是512长度么
from chatglm-tuning.
from chatglm-tuning.
你跑的是带不带lora的啊?我用你的标准脚本没问题,但是我砍掉了lora那部分,也就是peft的部分,就不行了。。。
试试注释掉finetune.py的第128行:model.lm_head = CastOutputToFloat(model.lm_head)
from chatglm-tuning.
模型的配置用官方默认的就可以
你跑的是512长度么
我这块是说训练的样本的最大长度,之前数据预处理脚本有点问题,最大长度限制没起作用,现在修复了,可以拉下最新的代码重跑下数据预处理再试试,我这边同样24G显存跑320长度, bs=2是没问题
from chatglm-tuning.
python fineturn.py的fp16改成bf16试试
from chatglm-tuning.
Related Issues (20)
- 请问大佬是否有计划可以支持下qlora? HOT 1
- 修改max_seq_length好像并没有生效? HOT 1
- 如何支持多卡跑
- 请教一个问题,data_collator中不需要实现attention mask么? HOT 2
- ChatGLM LoRA微调之后,量化quantize=8显存、推理耗时都反向增加 HOT 1
- finetune数据使用data_collator时报错 KeyError:seq_len HOT 2
- 微调语料格式转换出现乱码 HOT 1
- 请问如何读取checkpoint继续训练? HOT 1
- AttributeError: 'ChatGLMModel' object has no attribute 'lm_head' HOT 3
- 请问下如果想让模型学到某个领域的数据集,大概需要多大的数据量呢?
- 这个项目停更了吗
- 问题请教
- 问题请教:将prompt token设置为-100即可不计算loss
- [数据预处理-tokenization时报错] datasets.builder.DatasetGenerationError
- 请问这个项目支持chatglm3吗
- 请问在训练过程中输出的日志中loss、learning_rate和epoch分别代表什么含义
- 在colab上运行finetune.ipynb的时候会报一个huggingface登录的错误,有人遇到同样的错误吗? HOT 1
- 关于保存的adapter_model.bin无实际推理效果的问题 HOT 2
- 基于3af1bfd提交在3090上跑起来的requirements.txt
- 小白,求大神解答,ImportError: cannot import name 'soft_unicode' from 'markupsafe HOT 1
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from chatglm-tuning.