Hvorfor er træningsfejl mindre end testfejl?
Hvorfor er træningsfejl mindre end testfejl?

Video: Hvorfor er træningsfejl mindre end testfejl?

Video: Hvorfor er træningsfejl mindre end testfejl?
Video: 7 minutters træning for at forbrænde fedt og tabe sig 2024, April
Anonim

Det træningsfejl vil normalt være Mindre end det test fejl fordi de samme data, der bruges til at passe til modellen, bruges til at vurdere dens træningsfejl . En del af uoverensstemmelsen mellem træningsfejl og test fejl er fordi uddannelse sæt og prøve sæt har forskellige inputværdier.

Er valideringsfejlen derfor altid højere end træningsfejlen?

Men generelt set, træningsfejl vil næsten altid undervurder din valideringsfejl . Det er dog muligt for valideringsfejl at være mindre end træningen . Du kan tænke på det på to måder: Din uddannelse set havde mange 'svære' sager at lære.

Og hvorfor øges træningsfejlen? Imidlertid fejl på testsættet falder kun, da vi tilføjer fleksibilitet op til et vist punkt. I dette tilfælde sker det ved 5 grader som fleksibiliteten stiger ud over dette punkt træningsfejl stiger fordi modellen har husket uddannelse data og støj.

På samme måde kan du spørge, hvad er træningsfejl og testfejl?

Træningsfejl opstå, når en trænet model vender tilbage fejl efter at have kørt det på dataene igen. Det begynder at returnere forkert resultater. Test fejl er dem, der sker, når en trænet modellen køres på et datasæt, som den ikke har nogen idé om. Det vil sige uddannelse data er helt anderledes end afprøvning data.

Hvorfor er valideringsnøjagtigheden højere end træningsnøjagtigheden?

Det uddannelse tab er højere fordi du har gjort det kunstigt sværere for netværket at give de rigtige svar. Dog under validering alle enheder er tilgængelige, så netværket har sin fulde regnekraft - og dermed kan det yde bedre end i uddannelse.

Anbefalede: