Hvordan virker selvopmærksomhed?
Hvordan virker selvopmærksomhed?

Video: Hvordan virker selvopmærksomhed?

Video: Hvordan virker selvopmærksomhed?
Video: What is Self Awareness and Why is it Important at Work 2024, November
Anonim

I lægmandssprog selv - opmærksomhed mekanisme tillader inputs at interagere med hinanden (" selv ”) og find ud af, hvem de skal betale mere opmærksomhed til (" opmærksomhed ”). Udgangene er aggregater af disse interaktioner og opmærksomhed scoringer.

Og hvad er selvopmærksomhed?

Selv - opmærksomhed , nogle gange kaldet intra- opmærksomhed er en opmærksomhed mekanisme, der relaterer forskellige positioner af en enkelt sekvens for at beregne en repræsentation af sekvensen.

Og hvad er selvopmærksomhed i dyb læring? Lad os først definere, hvad " selv - Opmærksomhed ” er. Cheng et al, i deres papir med navnet "Long Short-Term Memory-Networks for Maskine Læsning”, defineret selv - Opmærksomhed som mekanismen til at relatere forskellige positioner af en enkelt sekvens eller sætning for at få en mere levende repræsentation.

Med hensyn til dette, hvad er opmærksomhedsmekanisme?

Opmærksomhedsmekanisme tillader dekoderen at behandle forskellige dele af kildesætningen ved hvert trin af outputgenereringen. I stedet for at indkode inputsekvensen til en enkelt fast kontekstvektor, lader vi modellen lære, hvordan man genererer en kontekstvektor for hvert outputtidstrin.

Hvad er opmærksomhedsbaseret model?

Opmærksomhed - baserede modeller tilhører en klasse af modeller almindeligvis kaldet sekvens-til-sekvens modeller . Formålet med disse modeller , som navnet antyder, det at producere en output-sekvens givet en input-sekvens, som generelt er af forskellig længde.

Anbefalede: