Hvad er regulariseret lineær regression?
Hvad er regulariseret lineær regression?

Video: Hvad er regulariseret lineær regression?

Video: Hvad er regulariseret lineær regression?
Video: Regularization Part 1: Ridge (L2) Regression 2024, April
Anonim

Regulering . Dette er en form for regression , der begrænser/regulerer eller formindsker koefficientestimaterne mod nul. Med andre ord fraråder denne teknik at lære en mere kompleks eller fleksibel model , for at undgå risikoen for overmontering. Et simpelt forhold til lineær regression ser sådan ud.

Tilsvarende, hvad er lambda i lineær regression?

Når vi har en høj grad lineær polynomium, der bruges til at passe et sæt punkter i en lineær regression opsætning, for at forhindre overfitting, bruger vi regularisering, og vi inkluderer en lambda parameter i omkostningsfunktionen. Det her lambda bruges derefter til at opdatere theta-parametrene i gradient-descent-algoritmen.

For det andet, hvad er formålet med regularisering? Regulering er en teknik, der bruges til at tune fungere ved at tilføje en ekstra straframme i fejlen fungere . Den ekstra term styrer det overdrevent fluktuerende fungere sådan at koefficienterne ikke tager ekstreme værdier.

Hvorfor skal vi på denne måde regularisere i regression?

Målet med regularisering er at undgå overfitting, med andre ord vi forsøger at undgå modeller, der passer ekstremt godt til træningsdataene (data brugt til at bygge modellen), men passer dårligt til testdata (data bruges til at teste hvor god modellen er). Dette er kendt som overfitting.

Hvad betyder regularisering?

I matematik, statistik og datalogi, især i maskinlæring og omvendte problemer, regularisering er processen med at tilføje information for at løse et dårligt stillet problem eller for at forhindre overfitting. Regulering gælder objektive funktioner i dårligt stillede optimeringsproblemer.

Anbefalede: