Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

图像重建问题 #63

Open
ChenPPGo opened this issue Feb 12, 2025 · 10 comments
Open

图像重建问题 #63

ChenPPGo opened this issue Feb 12, 2025 · 10 comments

Comments

@ChenPPGo
Copy link

ChenPPGo commented Feb 12, 2025

Emu3是一个非常棒的项目!

根据文章以及代码中的描述,Emu3应该是一个多模态大模型,所以理论上应该支持多模态输入和多模态输出。但是模型目前只有U和G两种模式。
请问您是否考虑过同时输入文字和图片,输出图片的模式?如果没有的话,您是否可以提供一些关于同时输入文字和图片,输出图片的模型修改思路?是否仅仅构建datasets和训练模式就可以做到呢?

非常期待您的答复!

@ryanzhangfan
Copy link
Collaborator

Emu3能够接收多个模态的输入,并且产生多个模态的输出,其主要意义是验证能够仅用最简洁的Next-Token Prediction架构将多模态任务统一。所以,我们在release的图文模型的训练过程中,只采用了T2I和I2T两个类型的数据训练。因此,当前的Emu3模型不具备输入图文交错数据,输出图像的能力。但是在对应的交错数据上训练后,Emu3是能够实现相应功能的。具体可以参考#61 (comment)

@ChenPPGo
Copy link
Author

我尝试一下,非常感谢!

@ChenPPGo
Copy link
Author

您好,我根据您在#61的回复中,参考了
Image
的方法重新构造了我的inputs序列,然后使用stage1权重和sft脚本进行微调。

当我使用sft进行微调时,会出现cuda out of memory的情况,我使用的是两张48GB A6000 Ada显卡。而且我发现脚本中gradient_accumulation_steps 4,实际使用zero3时,会报错
Image

然后我加入了lora进行微调,但是我使用lora时,模型训练的loss会不收敛,梯度也特别小。
Image

这个情况请问您有思路吗?

@ryanzhangfan
Copy link
Collaborator

尝试换一下deepspeed版本吧,我们使用zero3 + gradient accumulation是能够正常训练的。参考deepspeedai/DeepSpeed#6793

@ChenPPGo
Copy link
Author

尝试换一下deepspeed版本吧,我们使用zero3 + gradient accumulation是能够正常训练的。参考deepspeedai/DeepSpeed#6793

感谢,gradient_accumulation_steps报错的问题解决了,但还是会报CUDA out of memory的错。是我的显存还不够么?

@ryanzhangfan
Copy link
Collaborator

可以试下减少batch size,或者使用zero3 + offload

@ChenPPGo
Copy link
Author

可以试下减少batch size,或者使用zero3 + offload

已经把batch size设置为1了,还是会爆显存。使用offload机器会卡死,已经试了好几次了,非常难受。

请问使用lora的时候梯度会很小而且loss不收敛这种情况您有想法吗,我想实在不行就用lora微调一下看看能不能实现这个任务

@ryanzhangfan
Copy link
Collaborator

我们没有尝试过使用lora去tune Emu3的模型,但是之前在Emu1上对lora的尝试并没有遇到过不收敛的问题。所以相关的经验也不是很多。

@ChenPPGo
Copy link
Author

好的,我再试一下,非常感谢!

@ChenPPGo
Copy link
Author

您好我现在已经微调通了,然后loss8左右开始,4个epoch收敛在3左右下不去了,这是不是不太对呀

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants