Comments (16)
分享一下我们这边的工作:
1、翻译部分了alpaca数据集,补充了一些数据。项目地址在这里 https://github.com/hikariming/alpaca_chinese_dataset
2、把大概15个问题和回答复制了300次,重新改了下dataloader转换成chatglm的形式,只训练这15个问题,把loss降到了0.002左右,稍后我们会在https://github.com/hikariming/alpaca_chinese_dataset放出我们在colab上的代码
3、测试训练好的模型,随便问这15个问题中的回答,依然不行
其他的额外补充,我们用了另一个只微调0.6%参数的lora方法,然后发现模型没法像老哥的项目一样收敛。所以我们现在尝试加入更多参数进行微调。
from zero_nlp.
inference阶段代码有问题吧?只读取了原始的参数,没有读取lora参数,所以和原模型一模一样
from zero_nlp.
大哥牛逼,能用上我们数据集是我们的荣幸😄
from zero_nlp.
+1 我也是这样的,然后我用demo中给出的data2进行训练,但依然看不出变化
from zero_nlp.
🎉恭喜各位同学已经跑通了
📣 这个问题,问题人还挺多的,那就回答一下吧。
我这个工作:
- 目前只是从数据的角度,让模型可以在3090上跑通了,并且一切测试正常。
- 只是使用了1w多条数据,来训练。给到的数据也只是一个demo,并不是严格按照chatglm要求来的。有些同学也提到了,数据样式不符合对话形式,其实如果看来chatglm的源码,会发现,再复杂的对话逻辑,也不过就是文本拼接。又或者对
input_ids
和labels
做处理。
为什么训练之后,没啥效果?我目前还没有研究,但是可以列举几个方向,供各位发散。
- 📝当前数据不多,可能数据量需要达到一定的量级才能有效果,gpt2大概是有1.6b的参数,我当时喂了15G文本数据,效果都一般,更别说这个6b模型了,那数据量更大。
- 🚀 prompt没做好,这个模型已经可以理解语意了。如果你再微调的时候,prompt使用的不行(说白了,就是模型不听你话,你需要说的更加严厉一点)。
- ☢️在微调的时候,使用的是peft的包的lora算法对chatglm-6b的query_key_value做调整,但是我们只是对这个层做调整。这么做真的有效果么?也是值得我们思考的。
期待更多的同学给到建议~
from zero_nlp.
先给点个赞,期待后续
from zero_nlp.
同碰到这个问题,看了下从checkpoint读的model参数和结构,没有把lora的训练结果从checkpoint读出来
from zero_nlp.
没有
我把微调仓库都试完了,目前看效果最明显的是那个用自己对话数据集的项目,但是这边项目的微调代码好清爽,我们也会继续研究问题出在哪里
from zero_nlp.
哈哈哈,感谢老哥的夸奖,我当时数据,只是一个简单的demo。并没有做什么数据上的策略。目前并行这个大问题,我也解决了。接下来就开始优化数据了。
from zero_nlp.
#17 请问是这个问题导致预测结果和原始参数结果没变化的么,但不知道怎么改
from zero_nlp.
inference阶段代码有问题吧?只读取了原始的参数,没有读取lora参数,所以和原模型一模一样
看代码似乎是读取了的....我也暂时不知道是怎么回事,我的colab没有💰了,就先这样吧,等待更厉害的大佬解决这个问题
from zero_nlp.
from zero_nlp.
具体不多解释了。用实验数据说话,下一步,我将用来提升效果。后面会吧相关的东西放在这里
from zero_nlp.
具体不多解释了。用实验数据说话,下一步,我将用来提升效果。后面会吧相关的东西放在这里
大哥加油!我们也在持续研究这个问题,有结果了也和你说
from zero_nlp.
没有
我把微调仓库都试完了,目前看效果最明显的是那个用自己对话数据集的项目,但是这边项目的微调代码好清爽,我们也会继续研究问题出在哪里
请问对话数据集是哪个项目呀 @hikariming
from zero_nlp.
具体不多解释了。用实验数据说话,下一步,我将用来提升效果。后面会吧相关的东西放在这里
大哥加油!我们也在持续研究这个问题,有结果了也和你说
兄弟做的数据集不错。目前已经支持alpaca数据集格式,做测试的时候,也就是使用你们的数据来做的。你们可以试一试
from zero_nlp.
Related Issues (20)
- ChatGLM2 lora finetuning 加载 lora 参数:RuntimeError: Expected 4-dimensional input for 4-dimensional weight [3072, 32, 1, 1], but got 3-dimensional input of size [1, 64, 4096] instead HOT 4
- 4张3080ti跑chatglm2-6b-lora报oom HOT 5
- 求助:chatglm2 lora训练error:RuntimeError: Expected is_sm80 to be true, but got false. HOT 2
- 训练的时候报错ValueError: The current `device_map` had weights offloaded to the disk. HOT 11
- 训练出错
- 两张4090单机多卡跑,咋感觉越跑越慢了,比单卡慢 HOT 2
- 请问有部署或者运行的文档吗?在哪里可以看?
- 实时微调可以通过加入传统RL实现吗
- 请问如果单纯使用zeroth-order向前优化少量batch(只要体现出一定的优化效果)的话要怎么实现 HOT 2
- lora推理中只能指定一个输入吗?有办法实现batch_size的推理吗
- 救命!!ChatGlm-v2-6b_Lora该怎么设置epoch?? HOT 1
- 大佬,可以多个多个lora叠加使用吗?
- chatglm_v2_6b_lora多卡如何设置,没有找到 HOT 2
- 能出一个ChatGLM
- 能出一个ChatGLM的教程吗
- Segment Fault 是哪的问题?
- 大佬 chinese_llama 还可以用吗 HOT 1
- 出个chatglm3的吧 微调后 推理老是出问题 HOT 1
- internlm-sft 单机多卡微调 GPU 利用率低 HOT 5
- 大佬出个教程把 HOT 2
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from zero_nlp.