Mínimos cuadrados parciales con el método de descenso de mayor pendiente / Partial least square with method of maximum gradient descent

Autores/as

  • Eddy Jackeline Rodríguez Universidad del Zulia

Palabras clave:

PLS, método de descenso de mayor pendiente, función de costo, problema de optimización., method of maximum gradient descent, function cost, optimization problem

Resumen

El estudio del modelado de problemas de regresión lineal es de interés en varios campos de la ciencia como en: la quimiométrica, economía, física, entre otros. Los mínimos cuadrados parciales (PLS) tienen su origen en las investigaciones realizadas por Geladi, Kowalski y Hoskuldsson. El objetivo de este trabajo es presentar un desarrollo del PLS basado en el método de descenso de mayor pendiente, por lo cual se expone previamente un estudio de estos métodos. El primero es una técnica que genera un nuevo espacio de la función regresión al reducir el espacio de la matriz de entrada, y el segundo es un método de optimización que se basa en una función a minimizar, a partir de un punto cualquiera y dirección de descenso igual al gradiente de la función. Se demuestra que es posible aplicar el método de descenso de mayor pendiente para encontrar en el PLS los vectores proyección entre las matrices de entrada y respuesta y las variables latentes. Los datos experimentales verifican que con este método de optimización el PLS modela problemas de regresión lineal de forma satisfactoria. La investigación se llevó a cabo usando una metodología descriptiva-comparativa partiendo de la consulta en fuentes bibliográficas y páginas web.

Abstract

The study of problems of linear regression modeling is of great interest in various fields of Science: as in the chemometrics, economics, physics, among others. The partial least squares (PLS) have their origin in the research conducted by Geladi, Kowalski and Hoskuldsson. The objective of this paper is to present a development of the PLS based method of maximum gradient descent, which is exposed by a previous study of these, the first is a technique that generates a new regression function space by reducing the space the input matrix and the second is an optimization method based on a function to be minimized, a point from any and down direction equal to the gradient of the function. We show that it is possible to apply the method of maximum gradient descent to find the PLS projection vectors between input and response matrices and latent variables. The experimental data verified that this method of optimizing the PLS regression model problems satisfactorily.The research was carried out using a descriptive-comparative methodology on the basis of consultation in bibliographical sources and websites.

Descargas

Los datos de descarga aún no están disponibles.

Referencias

Geladi P. and Kowalski B. (1986). Partial Least- Squares Regresión: A Tutorial. Elsevier Science Publishers B V., p 1-17.

Geladi P. and Kowalski B. (1986). An Example of 2-Block Predictive Partial Least- Squares Regression with Simulated Data. Elsevier Science Publishers B V., p. 19-32.

Hoskuldsson A. (1998). PLS Regresión Methods. Journal of Chemometrics. Vol. 2, p. 211-228.

Wold S., Sjöström M. and Eriksson L. (2001). PLS-Regressions: a Basic Toll of Chemometrics . Chemometrics and Intelligent Laboratory Systems 58, p. 109-130.

Krämer N., Boulesteix A. and Tutz G. (2008). Penalized Partial Least Squares with Application to B-Spline Transformation and Functional Data, p. 1-26. {EN LINEA} Disponible en http://www.wias-berlin.de/people/kraemer/papers/chemo_ppls.pdf.

Boulesteix A. and Strimmer K. (2006). Partial Least Squares: a versatile tool for the analysis of highdimensional genomic data. Briefings in Bioinformatics, Vol. 8, No. 1, p. 32-44.

Gonzalez J., Peña D. and Romera R. (2007). A Robust Partial Least Squares Method with Applications. Working paper 07-13. Statistic and Econometric Series 04, p. 1-20. {EN LINEA} Disponible en http://e-archivo.uc3m.es/bitstream/10016/665/1/ws071304.pdf.

Rodríguez E. (2005). Desarrollo Matemático del Modelo de Regresión No Lineal Kernel Cuadrados Mínimos Parciales. Trabajo de Ascenso para optar a la categoría de profesor asociado en la Universidad del Zulia, p. 94.

Bennett K. and Embrechts M. (2003). An Optimization Perspectiva on Kernel Partial Least Squares Regresion. Chapter 11 in Advances in Learning Theory: Methods, Models and Applications, Suykens J. A. K. et al., Eds., NATO-ASI Series in Computer and System Sciences, IOS Press Amsterdam, The Netherlands.

Burden R. and Faires J. (1985). Análisis Numérico. México D.F. Grupo Edittorial Iberoamérica, p. 721.

Descargas

Publicado

2012-07-01

Número

Sección

Artículos de investigación

Cómo citar

Mínimos cuadrados parciales con el método de descenso de mayor pendiente / Partial least square with method of maximum gradient descent. (2012). Revista Tecnocientífica URU, 3, 29-38. https://revistas.fondoeditorial.uru.edu/index.php/tecnocientificauru/article/view/434

Artículos similares

21-30 de 167

También puede Iniciar una búsqueda de similitud avanzada para este artículo.