Fra et praktisk synspunkt har L1 en tendens til at krympe koefficienter til nul, mens L2 har en tendens til at krympe koefficienter jævnt. L1 er derfor nyttigt til funktionsvalg, da vi kan droppe alle variabler forbundet med koefficienter, der går til nul. L2 er på den anden side nyttig, når du har collineære/samafhængige funktioner.
Hvad er brugen af regularisering Hvad er L1- og L2-regularisering?
L1-regularisering giver output i binære vægte fra 0 til 1 for modellens funktioner og bruges til at reducere antallet af funktioner i et enormt dimensionelt datasæt. L2-regularisering spreder fejltermerne i alle vægtene, hvilket fører til mere nøjagtige tilpassede endelige modeller.
Hvad er forskellene mellem L1- og L2-regularisering?
Den største intuitive forskel mellem L1- og L2-regulariseringen er, at L1-regularisering forsøger at estimere medianen af dataene, mens L2-regulariseringen forsøger at estimere gennemsnittet af dataene for at undgå overtilpasning. … Denne værdi vil også være medianen af datafordelingen matematisk.
Hvad er L1- og L2-regularisering i dyb læring?
L2-regularisering er også kendt som vægtforfald, da det tvinger vægtene til at falde mod nul (men ikke nøjagtigt nul). I L1 har vi: I denne straffer vi den absolutte værdi af vægtene. I modsætning til L2 kan vægtene her reduceres til nul. Derfor er det meget nyttigt, når vi forsøger at komprimerevores model.
Hvordan fungerer L1- og L2-regularisering?
En regressionsmodel, der bruger L1-regulariseringsteknik, kaldes Lasso-regression, og model, der bruger L2, kaldes Ridge-regression. Den vigtigste forskel mellem disse to er strafbestemmelsen. Ridge-regression tilføjer "kvadratstørrelse" af koefficienten som strafled til tabsfunktionen.