-
Notifications
You must be signed in to change notification settings - Fork 47
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
ERROR: The function received no value for the required argument: lora_model_name_or_path #2
Comments
Hi @pereconteur! Unfortunately, you cannot merge the Vigogne-LoRA weights with the Alpaca model. The Thank you for asking. I will update the README to clarify this! |
Salut je suppose que tu comprend le francais. J'ai téléchargé le fichier : llama-7 B-hf, qui à mon avis est le modèle de Llama au format Hugging Face's :
Dit moi si c'est bien ca. Si c'est ca, j'ai effectué la commande suivante :
et j'ai cette erreur qui survient :
Une idée pour m'aider stp, j'adorerais utilise une version francaise. Merci ❤️ |
HI @pereconteur , Désolé pour la réponse tardive. Pourrais-tu réssayer avec la commande suivante ? python export_state_dict_checkpoint.py \
--base_model_name_or_path ../../llama-7b-hf \
--lora_model_name_or_path "bofenghuang/vigogne-lora-7b" \
--output_dir vigogne/scripts/./models/7B \
--checkpoint_size "7b" |
Salut, C'est bon j'ai réussi à le faire fonctionner, enfaite je n'avais pas les bons poids pour Llama et pour ceux que ça intéresse j'ai trouvé les poids ici : Et il faut que le dossier à 7B correspond à ces hashes :
Après ça tout roule ! Merci pour ton repository ! |
Tu pourrais m'expliquer comment t'a fait pour la fine tuner ? Et peut-on fine tuner un modèle avec un fichier .json avec des instructions, input et output ? |
Hello! Here's the error I get with export_state_dict_checkpoint.py on CPU; on GPU; this is on 13B. I get the same error on both. No idea what's going on!? |
here's what chatgpt says :)
So I guess it's an issue with 13B? I've completed all steps prior successfully. Will try again with a smaller model, if that is not an error with the script. |
Hi @pereconteur, Yes, you just need to format your data to a JSON file with instruction, input, and output, then launch the fine-tuning using this command |
Ok et c'est possible de fine-tunner avec un Macbook Pro M1 ? Car j'ai cette erreur lorsque j'essaie ta commande :
|
I've never tried with M1. But maybe you can take a look at here |
Ok merci, je vais tester ça et je te tiens au courant ! J'ai fait une vidéo Youtube sur ta solution je te mets le lien ci-dessous si tu veux la visionner, en espérant t'avoir fait une belle pub sur tes travaux. |
Merci beaucoup pour cette vidéo ! C'est super clair et précis ! Do you mind if I put the link in the README? |
Non au contraire ! Ça me fait super plaisir de pouvoir contribuer à ton projet ! Je te pose toute ces questions parce que ma prochaine vidéo portera sur la fine-tuning, et j'aimerais en montrer l'exemple avec ton repository. Mais vu que j'ai un mac, et donc pas de carte Nvidia, je ne peux pas utiliser CUDA pour la fine-tuning et donc je cherche une solution pour le faire sur mon mac tu comprend ? |
Unfortunately, running PyTorch on M1 may be unfeasible because it is primarily optimized for CUDA. Have you considered using a GPU cloud instead? |
Ok, I have a request. To make my video tutorial on fine-tuning your repo, I need to show how to do it with your finetune.py file, would it be possible for you to film your screen doing the steps, and send them to me, for the purpose of the video? For example, I wanted to put in the Json file the instruction: "Donne moi le top 10 du ballon d'or 2016 (football)" and that it gives me the answer that I put in the output. Showing the answer before and after the fine-tuning. You could accept my request, because I don't have an NVIDIA card and I'm struggling 🥲. My email : [email protected] |
You would agree ? I would be very grateful and it would allow me to see how it works! @bofenghuang |
Hi @pereconteur! Sure, I am happy to help you with your request! However, I want to let you know that I am currently working on some new features that will affect the structure of this repository. It might be more beneficial for you to wait until these changes are implemented before proceeding with the video tutorial. |
Hi @bofenghuang, Okay. When do you think it will be ready? |
Hi @bofenghuang, I see you updated your repo! I'm very happy that you succeeded! By the way, I would like to know if you could send me what I asked you? My subscribers are eager to know the steps to finish with your repo, thank you! |
Hi @bofenghuang So much thanks for your job, il really believe that's a good way to play with french llm models. I follow the wondefull instructions of @pereconteur to tranform vigogne model to llama.cpp models, in order to play with it on MacBook M1 It seems that "bofenghuang/vigogne-lora-7b" is no more available, as the command:
No more success with "bofenghuang/vigogne-7b-instruct"
which both terminate by a sadly
I've read you where tranforming (^^) the repo, and may be there is no backward compatibility with the old tutorial ? Thanks again |
Hi @FxNion ! I have a YouTube channel where I give lots of tutorials, including how to install Vigogne : https://youtu.be/BBf5h0HCFMY Nevertheless I advise you first to join my Discord, where I update as much as possible all the new way to install, you'll just have to browse the different forum hello : https://discord.gg/xY63gyVfaR I hope this helps and don't hesitate to give me your feedback! |
Salut @pereconteur ;) C'est suite à ta super vidéo que j'ai atterri ici, pour tenter de résoudre les problèmes que j'ai rencontrés en tentant de marcher dans tes pas. Et je suis aussi sur ton Discord, ou j'ai posé la même question. Merci encore, et à bientôt ! |
Ok dans ce cas là > Salut @pereconteur ;)
Merci beaucoup pour ton retour ! Dans ce cas là clique sur ce lien et si il ne marche pas, pose ta question dans la catégorie IA sans entraide : https://discord.com/channels/1092039071435599874/1113928879481032724 |
Waouh @pereconteur, super boulot avec ce script. Je vais tester ça ! Merci pour ton aide |
@pereconteur a priori les urls des adapters_config.json ont changé, ça ne doit pas être grand-chose.
et
|
Hi,
I would like to combine your model with Alpaca's.
I have installed everything, and made a git clone of the lora model repository at 7B.
Only, despite the path to it no way to continue, am I missing something ?
Tree of Vigogne-Lora :
The text was updated successfully, but these errors were encountered: