lagrange y kunh tucker

15
Lagrange y Kunh Tucker República Bolivariana de Venezuela. Ministerio del Poder Popular para la Educación Universitaria. Instituto Universitario Politécnico “Santiago Mariño” Extensión Cabimas Edo. Zulia. Ing. Sistemas Raniel Sulbaran C.l: 19.327.942

Upload: raniels

Post on 21-Jul-2015

108 views

Category:

Documents


0 download

TRANSCRIPT

Lagrange y Kunh Tucker

República Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educación Universitaria.

Instituto Universitario Politécnico “Santiago Mariño”

Extensión Cabimas Edo. Zulia.

Ing. Sistemas Raniel Sulbaran C.l: 19.327.942

Método de Lagrange.

Biografía.

Joseph Louis Lagrange, bautizado como GiuseppeLodovico Lagrangia, también llamado Giuseppe LuigiLagrangia o Lagrange (25 de enero de 1736 en Turín -10 de abril de 1813 en París) fue un matemático, físicoy astrónomo italiano que después vivió en Rusia yFrancia. Lagrange trabajó para Federico II de Prusia, enBerlín, durante veinte años. Lagrange demostró elteorema del valor medio, desarrolló la mecánicaLagrangiana y tuvo una importante contribución enastronomía.

Definición.

En los problemas de optimización, los multiplicadores deLagrange, nombrados así en honor a Joseph Louis Lagrange,son un método para trabajar con funciones de variasvariables que nos interesa maximizar o minimizar, y estásujeta a ciertas restricciones. Este método reduce elproblema restringido en n variables en uno sin restriccionesde n + 1 variables cuyas ecuaciones pueden ser resueltas.Este método introduce una nueva variable escalardesconocida, el multiplicador de Lagrange, para cadarestricción y forma una combinación lineal involucrando losmultiplicadores como coeficientes. Su demostracióninvolucra derivadas parciales, o bien usando diferencialestotales, o sus parientes cercanos, la regla de la cadena. Elfin es, usando alguna función implícita, encontrar lascondiciones para que la derivada con respecto a lasvariables independientes de una función sea igual a cero.

Cuando son útiles.

Uno de los problemas más comunes en el cálculo esel de encontrar máximos o mínimos (en general,"extremos") de una función, pero a menudo es difícilencontrar una forma cerrada para la función que seestá extremized. Estas dificultades surgen a menudocuando se desea maximizar o minimizar una funciónsujeta a condiciones exteriores fijos o restricciones. Elmétodo de los multiplicadores de Lagrange es unaherramienta poderosa para resolver esta clase deproblemas sin la necesidad de resolver explícitamentelas condiciones y los utilizan para eliminar las variablesadicionales.

Las dos aéreas mas importantes donde se aplica este método.

Economía.

La optimización reprimida desempeña unpapel central en la economía. Por ejemplo, elproblema selecto para un consumidor serepresenta como uno de maximizar unafunción de utilidad sujeta a una coacción depresupuesto.

Teoría de control

En la teoría de control óptimo , losmultiplicadores de Lagrange se interpretancomo constates variables, y losmultiplicadores de Lagrange se formulan denuevo como la minimización del hamiltoniano ,en el principio mínimo de Pontryagin.

Objetivos.

•Visualizar algunas superficies cuádricas y curvas denivel para distintos valores de la variable z.•Identificar, a través de los simuladores, los puntos (x,y)sobre la curva correspondiente a la función restriccióndonde la función principal tiene extremos.•Interpretar gráficamente los resultados obtenidosempleando el método de multiplicadores de Lagrange.•Aproximar las soluciones del problema a partir de laobservación en el simulador, de las curvas de nivel de lafunción principal y la curva correspondiente a la funcióncondicionante.•Adquirir habilidad en la resolución de problemas deoptimización en un ambiente computacional.

Método de Kuhn Tucker.Biografía.

Albert William Tucker (28 de noviembre de 1905 – 25 de enero de 1995)fue un matemático estadounidense nacido en Canadá que realizóimportantes contribuciones a la Topología, Teoría de juegos y a laProgramación no lineal.

Definición.En programación matemática, las condiciones de Karush-Kuhn-Tucker

(también conocidas como las condiciones KKT o Kuhn-Tucker) soncondiciones necesarias y suficientes para que la solución de un problemade programación matemática sea óptima. Es una generalización delmétodo de los Multiplicadores de Lagrange.

Importancia.La importancia de este teorema radica en que nos dice que

podemos asociar una función de utilidad a unas preferencias, estonos abre la puerta de la potente herramienta del análisismatemático al estudio del comportamiento del consumidor.

Campo de aplicación.

Básicamente el procedimiento consiste en resolver elproblema no lineal como uno sin restricciones, luegosi la solución óptima de dicho problema no cumple latotalidad o parte de las restricciones del problema seactivan dichas restricciones (en conjunto y/osecuencialmente) y se resuelve nuevamente. Esto serepite hasta llegar a un conjunto de restriccionesactivas cuya solución también satisface lasrestricciones omitidas. Notar que si se han activadola totalidad de restricciones sin encontrar unasolución factible, entonces el problema es infectable.Esta característica particular de los modelos nolineales permite abordar problemas donde existeneconomías o de economías de escala o en generaldonde los supuestos asociados a la proporcionalidadno se cumplen.

La Optimización en la toma de Decisiones.

Una de las características del ser humano es sucapacidad para tomar decisiones, lo queincluye, básicamente, su capacidad paraanalizar las alternativas y evaluarlas entérminos de su comportamiento respecto delos objetivos que desea conseguir. Es unaactividad tan cotidiana que prácticamente nole prestamos atención. En muchos casoshemos ‘automatizado’ ese proceso de toma dedecisiones como fruto de la experiencia. Sinembargo, cuando el problema al que nosenfrentamos es muy complejo, hay muchasalternativas posibles, y son graves susconsecuencias, por lo que resulta difícil realizareste proceso de análisis y evaluación.

Ejemplos.

Matriz Jacobiana.La matriz Jacobiana es una matriz formada por las derivadas

parciales de primer orden de una función. Una de las aplicacionesmás interesantes de esta matriz es la posibilidad de aproximarfunción la función en un punto. En este sentido, el Jacobianorepresenta la derivada de una función multivariable. Supongamos F:Rn → Rm es una función que va del espacio euclidiano n-dimensional a otro espacio euclidiano m-dimensional. Esta funciónestá determinada por m funciones reales: y1(x1,..., xn),..., ym(x1,...,xn). Las derivadas parciales de estas (si existen) pueden serorganizadas en una matriz m por n, la matriz Jacobiana de F:

Esta matriz es notada por: O como:

Funciones Para métricas

En algunos casos la ecuación de una función o de una relación no está dada.

En la forma Como en las igualdades.

sino que está determinada por un par de ecuaciones en términos de una misma variable.

Por ejemplo, consideremos las ecuaciones:

se tiene que ver cada valor de t le corresponde un punto (X,Y) del plano, el conjunto de los cuales determinara una relación R.

La siguiente tabla de valores :

Nos permite hacer la representación gráfica de la relación de la siguiente manera:

Condiciones de Karush-Kuhn-Tucker.

Estas condiciones deben ser satisfechas por la solución óptima decualquier problema. lineal y la mayoría de los problemas no lineales.Constituyen la base para el desarrollo de muchos algoritmoscomputacionales y proporcionan un criterio de parada para muchos otros,permitiendo establecer cuando ha sido alcanzado un óptimo localrestringido. En los problemas diferenciables de optimización no restringidala condición necesaria para que una solución sea un mínimo local es quese anule el gradiente. Por el contrario, esta propiedad no es cierta paraproblemas diferenciables restringidos. Las condiciones de Karush–Kuhn–Tucker generalizan la condición necesaria desarrollada para problemas norestringidos a los problemas con restricciones ecuaciones.

Problema general de optimización, consideremos el siguiente problema general:

La Optimización y la Toma de Decisiones.Una de las características del ser humano es su capacidad para tomar

decisiones, lo que incluye, básicamente, su capacidad para analizar lasalternativas y evaluarlas en términos de su comportamiento respecto delos objetivos que desea conseguir. Es una actividad tan cotidiana queprácticamente no le prestamos atención. En muchos casos hemos‘automatizado’ ese proceso de toma de decisiones como fruto de laexperiencia. Sin embargo, cuando el problema al que nos enfrentamos esmuy complejo, hay muchas alternativas posibles, y son graves susconsecuencias, por lo que resulta difícil realizar este proceso de análisis yevaluación.

Los problemas que surgen en las grandes organizaciones, tanto en el sector privado como en el público, son tan complejos que no pueden resolverse usando exclusivamente sentido común y experiencia práctica. Se deben tomar decisiones sobre la manera ‘óptima’ de usar los recursos disponibles, generalmente escasos, para lograr unos ciertos objetivos.