Lineāras regresijas modeļu konstruēšanas problēmas
Author
Siņica-Siņavskis, Juris
Co-author
Latvijas Universitāte. Fizikas un matemātikas fakultāte
Advisor
Lorencs, A.
Date
2009Metadata
Show full item recordAbstract
Maģistra darbā aplūkotas lineāras regresijas modeļu konstruēšanas problēmas. Modeļu bāzes funkcijas veidotas no pakāpes monomiem, Jakobi, Čebiševa, Ležandra, Ermita, Lagerra un trigonometriskajiem polinomiem. Maģistra darbā parādīts, ka katru nepārtrauktu funkciju segmentā [a,b] var aproksimēt ar aplūkoto modeļu bāzes funkciju lineāru kombināciju vidējā kvadrātiskā nozīmē ar iepriekš dotu precizitāti.
Maģistra darbā uzrādīta tāda novērojumu punktu sistēma, kura aplūkoto lineāras regresijas modeļu normālo vienādojumu sistēmai dod vienu atrisinājumu, kas garantē, ka informācijas matricu var invertēt, un var aprēķināt regresijas koeficientu novērtējumus.
Izveidotie lineāras regresijas modeļi aplūkoti uzdevumam par svešķermeņu identifikāciju digitālos pelēkas gradācijas attēlos, tas ir, apskatīta attēlu fragmentu aproksimācija ar dotajiem modeļiem.
Atslēgvārdi:
plāna matricas rangs
lineāri regresijas modeļi
informācijas matrica
ortogonālie polinomi
vidējā kvadrātiskā aproksimācija Construction problems of linear regression models are considered in the master thesis; basis functions of models are formed from monomials, Jacobi, Chebisev, Legandre, Hermite, Laguerre and trigonometric polynomials. It is shown that continuous function defined on an interval [a,b] can be approximated with a given precision in the mean square sense by a linear combination of basis functions.
Existence of such information matrix of normal equation system for developed linear regression models is shown that gives one solution, which means that the information matrix is invertible and estimates of regression coefficients can be calculated.
The task of object recognition in digital grayscale images is studied by linear regression models, i.e. an image fragment approximation is studied using chosen linear regression models.
Keywords:
design matrix rank
linear regression models
information matrix
orthogonal polynomials
mean square approximation