total descendants::6 total children::3 2 K |
https://github.com/karpathy/minGPT Andrej ma taketo pekne repo, aj s nejakymi ukazkami. Viete si natrenovat vlastne GPT from scratch. Teoreticky 124M model by mala zvladnut aj grafika s 8GB vram. Napriklad mne sa podarilo rozbehat finetuning 124M GPT-2 modelu (https://github.com/minimaxir/gpt-2-simple ) na mojom notebooku s RTX2070/8GB. Sice s trochou hackingu, chce to tensorflow-gpu@1.13.1 a gpt-2-simple@0.6 a Ubuntu 18.. Najviac ostara bolo nainstalovat CUDA v spravnej verzii pre dotycny tensorflow (CUDA 10) Jop a rozbehaval som to cez WSL2 na win11. Takze napriklad mam WSL2 s ubuntu18 kde je CUDA 10, potom WSL2 s ubuntu 20, kde bezim CUDA11 a stablle diffusion.. Ten CUDA bridge z win do WSL2 funguje krasne. |