-
Notifications
You must be signed in to change notification settings - Fork 3
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
仅仅使用genfewshot.py ,finetune.py ,inference_ddp.py 和evaluate.py 未达到论文中的效果 #6
Comments
进一步,发现使用finetune.py同参数训练的lora加到模型中,结果与未训练的llama模型结果完全一致 这是否合理 |
这可能和加载的backend llama模型以及lora adapter的ckpt有关。
|
加载模型model0 = LlamaForCausalLM.from_pretrained( 应用LoRA微调model = PeftModel.from_pretrained( model = model.merge_and_unload() |
你好 这里我使用你的模型 以及Lora 进行inference 和 evaluate 为什么结果仍然较低 |
如题,在使用games数据集 ,将sample设置为len(sequential_train) 的情况下 训练 + 使用训练后的lora获取predict 再通过evaluate计算dist排序 得到的ndcg以及RECALL水平均只有0.00的水平 无法达到论文中full的效果。是否还需要修改超参数或者进行其他操作呢。
The text was updated successfully, but these errors were encountered: