login::
password::
name::
id::
node:
Re[2]: 28.09.2022-8:27:00
template:
4
parent:
Re: 28.09.2022-8:27:00
owner:
drakh
created:
23.10.2022 - 21:30:08
cwbe coordinatez
:
101
63533
63608
8771344
9005291
9012711
9012750
ABSOLUT
K
YBERIA
permissions
you:
r,
system:
public
net:
yes
neurons
stats
|
by_visit
|
by_K
source
tiamat
K
|
my_K
|
given_K
last
commanders
polls
total descendants::2
total children::1
show[
2
|
3
]
flat
tak, bude trenujes from scratch, alebo finetunujes :)
btw v google collab ide finetunovat aj nad tym strednym modelom povacsinou, aspon ten minimaxirov simple-gpt2
title/content
title
content
user
0000010100063533000636080877134409005291090127110901275009012786
kyberbubus
24.10.2022 - 01:10:08
, level: 1,
UP
NEW
Re[3]: 28.09.2022-8:27:00
Mne to prišlo narovnako, pretože to asi nemá slovenčinu v korpuse, takže sa ju učilo z ničoho, ale pomerne rýchlo mi to začalo dávať čistú slovenčinu, v ktorej sa to už iba zdokonaľovalo, napriek tomu, že model mal byť natrénovaný z drvivej väčšiny na angličtine?
×÷ßßß$ˇ~[☼◙ş→☻ü84ó♀ÇüŮń§►♫☺♀♂ć☺<\ˇ
000001010006353300063608087713440900529109012711090127500901278609012805
drakh
24.10.2022 - 09:13:12
, level: 2,
UP
NEW
Re[4]: 28.09.2022-8:27:00
tak ono tam je dolezite ze ten BPE encoder (hoc je "optimalizovany "na EN) rozdeluje rovnako akekolvek stringy, takze slovencinu sa to dotrenuje velmi jednoducho.