revista
DESCRIPTION
optimización sin restriccionesTRANSCRIPT
![Page 1: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/1.jpg)
REPÚBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
EXTENSION MARACAY
OPTIMIZACION SIN RESTRICCIONES
Y
METODO LAGRANGE
Alumnos
Luis A. Lamón E. C.I V-13.715.731
Rudy Herrera C.I V-18.469.239
![Page 2: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/2.jpg)
Maracay Junio del 2015
OPTIMIZACIÓN DE FUNCIONES SIN RESTRICCIÓN
Optimizar una función es el proceso que permite encontrar el valor máximo y/o mínimo que
puede tomar una función así como aquellos valores de la variable independiente que hacen
que la función sea óptima.
Una buena técnica de optimización de variables es fundamental por al menos tres razones:
En muchos problemas las restricciones se pueden incluir dentro de la función objetivo, por lo
que la dimensionalidad del problema se reduce a una variable.
Algunos problemas sin restricciones, inherentemente incluyen una única variable.
Las técnicas de optimización con y sin restricciones, generalmente incluyen pasos de búsque-
da unidireccional en sus algoritmos.
En optimización sin restricciones se minimiza una función objetivo que depende de variables
reales sin restricciones sobre los valores de esas variables.
La formulación matemática es:
(OSR) = _minx f(x) ∈IRn
Donde f es una función suficientemente regular.
![Page 3: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/3.jpg)
FUNCIONES OBJETIVO DE DOS VARIABLES
Para que una función como z = f (x,y) tenga un mínimo o máximo relativo, tres condiciones
deben ser satisfechas:
Las derivadas parciales de primer orden deben simultáneamente ser iguales a cero. Ello indica
que en un punto dado (a,b) llamado “punto crítico”, la función no está creciendo ni decrecien-
do con respecto a los ejes principales sino a una superficie relativa
Las derivadas parciales de segundo orden deben ser negativas cuando ellas son evaluadas en
el punto crítico (a,b) para un máximo relativo y positivas para un mínimo relativo. Ello asegu-
ra que la función es cóncava y moviéndose hacia abajo en relación a los ejes principales en el
caso de un máximo relativo y la función es convexo y moviéndose hacia arriba en relación a
los ejes principales en el caso de un mínimo relativo.
El producto de las derivadas parciales de segundo orden evaluadas en el punto crítico deben
exceder el producto de las derivadas parciales cruzadas también evaluadas en dicho punto.
Esta condición adicional es necesaria para evitar un punto de inflexión o punto de silla
![Page 4: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/4.jpg)
METODO DE BUSQUEDA DIRECTA
EL MÉTODO SIMPLEX
El Método Simplex es un método analítico de solución de problemas de programación lineal
capaz de resolver modelos más complejos que los resueltos mediante el método gráfico sin
restricción en el número de variables.
El Método Simplex es un método iterativo que permite ir mejorando la solución en cada paso.
La razón matemática de esta mejora radica en que el método consiste en caminar del vértice
de un poliedro a un vértice vecino de manera que aumente o disminuya (según el contexto de
la función objetivo, sea maximizar o minimizar), dado que el número de vértices que presenta
un poliedro solución es finito siempre se hallará solución.
Este famosísimo método fue creado en el año de 1947 por el estadounidense George Bernard
Dantzig y el ruso Leonid Vitalievich Kantorovich, con el ánimo de crear un algoritmo capaz de
solucionar problemas de m restricciones y n variables.
El Método Simplex trabaja basándose en ecuaciones y las restricciones iniciales que se modelan me-
diante programación lineal no lo son, para ello hay que convertir estas inecuaciones en ecuaciones uti-
lizando unas variables denominadas de holgura y exceso relacionadas con el recurso al cual hace refe-
rencia la restricción y que en el tabulado final representa el "Slack or surplus" al que hacen referencia
los famosos programas de resolución de investigación de operaciones, estas variables adquieren un
gran valor en el análisis de sensibilidad y juegan un rol fundamental en la creación de la matriz identi-
dad base del Simplex.
![Page 5: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/5.jpg)
MÉ TODO DÉ LA MATRIZ HÉSSIANA PARA FUNCIONÉS DÉ DOS VARIABLÉS
En Matemática, la matriz hessiana de una función f de n variables, es la matriz cuadrada de n × n, de las
segundas derivadas parciales como por ejemplo:
Si tenemos un ejercicio con dos variables, obtendremos una matriz hessiana 2 x 2. Si el ejercicio fuera de
tres variables, la matriz gesiana será 3 x 3, y así sucesivamente. Para el caso de dos variables, la matriz hes-
siana 2 x 2 se genera de la siguiente manera:
Pasos a seguir para encontrar máximos y mínimos utilizando matrices Hessianas
Tener la función original que se va a trabajar.
Calcular las primeras derivadas parciales de la función con respecto a cada una de las variables que se tie-
ne la función original.
![Page 6: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/6.jpg)
cada elemento de la matriz hessiana, ya sea matriz 2 x 2 (si la función es de 2 variables), 3 x 3 (si la fun-
ción es de 3 variables), 4 x 4 (si la función es de 4 variables), n x n (si la función es de n variables).
Resolver la matriz hessiana normalmente cómo se resuelve la determinante de una matriz cuadrada. El
resultado que se obtenga de la matriz hessiana es la respuesta
Sólo tiene un punto crítico:
, es un mínimo relativo
![Page 7: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/7.jpg)
MÉTODO QUASI-NEWTON
Los métodos Quasi-Newton, se utilizan si la derivada de la función objetivo es difícil de calcular, o
ésta viene dada de forma numérica. Se basan en sustituir las derivadas por aproximaciones en di-
ferencias finitas.
La idea fundamental de los métodos Quasi-Newton es intentar construir una aproximación de la inversa
del Hessiano, usando información obtenida durante el proceso de descenso Estos métodos son similares a
los métodos de gradiente conjugado en el sentido de que se basan principalmente en propiedades de las
funciones cuadráticas. Sin embargo, en el método del gradiente conjugado, la principal fortaleza de la bús-
queda se deriva del uso de las direcciones conjugadas de búsqueda, mientras que los métodos de Quasi-
Newton están diseñados para imitar más directamente las características positivas del método de Newton pero
usando solo información de primer orden.
Ejemplo
Etapa 1: (Punto inicial). Se toma
Por tanto coincide con el método de la máxima pendiente, resultando t = 2 y
![Page 8: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/8.jpg)
Etapa 2: (Generación de la dirección de búsqueda). Para usar la fórmula de DFP se necesitan los vec-tores y matrices:
necesitan los vectores y matrices:
![Page 9: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/9.jpg)
MÉTODO NEWTON - RAPHSON
El método de Newton (conocido también como el método de Newton-Raphson o el método de New-
ton-Fourier) fue descrito por Isaac Newton. Es un algoritmo eficiente para encontrar aproximacio-
nes de los ceros o raíces de una función real. También puede ser usado para encontrar el máximo o
mínimo de una función, encontrando los ceros de su primera derivada.
Este método parte de una aproximación inicial x0 y obtiene una aproximación mejor, x1, dada por
La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor. Efectivamente,
sea r un cero de f y sea x una aproximación a r tal que r=x+h. Si f'' existe y es continua, por el teore-
ma de Taylor tenemos:
0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2)
en donde h=r-x. Si x está próximo a r (es decir h es pequeña), es razonable ignorar el término O(h2):
0 = f(x) + hf'(x)
por lo que obtenemos la siguiente expresión para h:
![Page 10: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/10.jpg)
teniendo en cuenta que r=x+h es fácil derivar
El método de Newton tiene una interpretación geométrica sencilla, como se puede apreciar del análisis
de la figura. De hecho, el método de Newton consiste en una linealización de la función, es decir, f se re-
emplaza por una recta tal que contiene al punto (x0,f(x0)) y cuya pendiente coincide con la derivada de la
función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se obtiene de la intersección de la función
linear con el eje X de ordenadas.
Veamos cómo podemos obtener la ecuación a partir de lo dicho en el párrafo anterior. La ecuación de la
recta que pasa por el punto (x0,f(x0)) y de pendiente f'(x0) es:
y - f(x0) = f'(x0)(x-x0)
de donde, haciendo y=0 y despejando x obtenemos la ecuación de Newton-Raphson
El método de Newton es muy rápido y eficiente ya que la convergencia es de tipo cuadrático (el nú-
mero de cifras significativas se duplica en cada iteración). Sin embargo, la convergencia depende en
gran medida de la forma que adopta la función en las proximidades del punto de iteración.
![Page 11: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/11.jpg)
MÉ TODO DÉL GRADIÉNTÉ CONJUGADO
En matemática, el método del gradiente conjugado es un algoritmo para resolver numéricamente los siste-
mas de ecuaciones lineales cuyas matrices son simétricas y definidas positivas. Es un método iterativo, así
que se puede aplicar a los sistemas dispersos que son demasiado grandes para ser tratados por métodos di-
rectos como la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve numé-
ricamente las ecuaciones en derivadas parciales.
El método del gradiente conjugado se puede utilizar también para resolver los problemas de optimización sin
restricciones como la minimización de la energía.
El método del gradiente biconjugado proporciona una generalización para matrices no simétricas. Varios mé-
todos del gradiente conjugado no lineales busca los mínimos de las ecuaciones no lineales.
Éjemplo:
Etapa 1: (Punto inicial). Se toma x(1) = (0, 0)T. De nuevo, la dirección de búsqueda es
![Page 12: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/12.jpg)
, por lo que no se repite, y se hace: t=2 y x2 = (0,1/2)T.
Etapa 2: (Generación de la dirección de búsqueda). Se obtiene.
y se calcula la dirección de búsqueda como:
Etapa 3: (Comprobación de optimalidad). Como d(2) ≠0, se trata de una dirección de descenso.
Etapa 4: (Búsqueda lineal). Para calcular el salto, se resuelve el problema:
![Page 13: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/13.jpg)
Minimizar
puesto que
Se obtiene
el valor óptimo de la búsqueda lineal es: α2=1 > 0.
Etapa 5: ( Actualización). Se hace
Etapa 6: (Comprobación de optimalidad). Puesto que x(3) satisface
se ha alcanzado el óptimo, y el algoritmo para.
Para el caso de funciones cuadráticas convexas, el óptimo se alcanza tras un número de iteraciones igual
a la dimensión de la matriz hesiana.
![Page 14: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/14.jpg)
METODO DE LAGRANGE
El método lagrangian (también conocido como multiplicadores lagrangian) lo propuso Joseph Louis
Lagrange (1736-1813), un matemático nacido en Italia. Sus multiplicadores lagrangian tienen aplicacio-
nes en una variedad de campos, incluyendo el físico, astronomía y económica. La lectura de una obra
del astrónomo inglés Edmund Halley despertó su interés, y, tras un año de incesante trabajo, era ya un
matemático consumado. Nombrado profesor de la Escuela de Artillería, en 1758 fundó una sociedad,
con la ayuda de sus alumnos, que fue incorporada a la Academia de Turín.
PARA QUÉ SIRVE EL MÉTODO DE LOS MULTIPLICADORES DE LAGRANGE?
El método de los Multiplicadores de Lagrange, es un procedimiento para encontrar los máximos míni-
mos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restrin-
gido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restriccio-
nes, y cuyas ecuaciones pueden ser resueltas más fácilmente. El método dice que los puntos donde la
función tiene un extremo, condicionado con k restricciones, están entre los puntos estacionarios de una
nueva función sin restricciones construida como una combinación lineal de la función y las funciones implica-
das en las restricciones, cuyos coeficientes son los multiplicadores.
![Page 15: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/15.jpg)
La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se
trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las
derivadas parciales con respecto a las variables independientes de la función sean iguales a cero.
OBJETIVOS DEL MÉTODO DE LAGRANGE
Visualizar algunas superficies cuádricas y curvas de nivel para distintos valores de la variable z.
Identificar, a través de los simuladores, los puntos (x,y) sobre la curva correspondiente a la función
restricción donde la función principal tiene extremos.
Interpretar gráficamente los resultados obtenidos empleando el método de multiplicadores de La-
grange.
Aproximar las soluciones del problema a partir de la observación en el simulador, de las curvas de
nivel de la función principal y la curva correspondiente a la función condicionante.
Adquirir habilidad en la resolución de problemas de optimización en un ambiente computacional.
![Page 16: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/16.jpg)
CARACTERÍSTICAS
Todos los óptimos que verifiquen las condiciones de regularidad establecidas tienen asociados los corres-
pondientes multiplicadores.
El teorema de Lagrange establece una condición necesaria de optimalidad (bajo las condiciones de regu-
laridad).
El método de eliminación de variables no resulta operativo cuando el problema tiene muchas restriccio-
nes o las restricciones son complejas, por lo que resulta muy útil éste método.
Los Multiplicadores de Lagrange es un método alternativo que además proporciona más información
sobre el problema.
AYUDAS QUE BRINDA
Para la Solución de Problemas de Optimización Dinámica: La resolución de un problema de interpola-
ción lleva a un problema de álgebra lineal en el cual se debe resolver un sistema de ecuaciones. Usando
una base monómica estándar para el polinomio interpolador, se llega a la matriz de Vandermonde. Eli-
giendo una base distinta, la base de Lagrange, se llega a la forma más simple de matriz identidad = δi
que puede resolverse inmediatamente.
EJEMPLO
Si f(x) es continua en el intervalo cerrado [a,b] y derivable en todo punto del intervalo abierto (a,b), en-
tonces existe al menos un punto c donde f'(c) = (f(b) - f(a))/(b - a).
H) f(x) es continua en [a,b] f(x) es derivable en (a,b)
T) Existe c perteneciente a (a,b) / f'(c)=(f(b) - f(a))/(b - a)
Geométricamente, (f(b) - f(a))/(b - a) es la tangente del án-
gulo que forma la secante que pasa por los puntos A(a,f(a))
y B(b,f(b)) de la curva, con el eje ox. f'(c) es la tangente del
ángulo que forma la recta tangente a la curva en el punto c,
con el eje ox.
Entonces, el teorema expresa que existe al menos un punto
en el intervalo (a,b) donde la tangente a la curva es paralela
a la recta que pasa por A y B.
![Page 17: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/17.jpg)
Ejercicios Propuestos:
1.- Calcula dos números que cumplan que al sumarlos resulte 10 y la resta de uno de
ellos menos el inverso del otro sea mínima.
Condición: x + y = 10, de donde y = 10-x
Condición: x + y = 10, de donde y = 10-x
La función:
![Page 18: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/18.jpg)
2.- Una empresa ha decidido mejorar su seguridad instalando 9 alarmas. Un especialista en el
tema señala que dada la estructura de la empresa sólo puede optar por dos tipos de alarmas, de
tipo A o de tipo B; además, afirma que la seguridad de la empresa se puede expresar como la
décima parte del producto entre el número de alarmas de tipo A instaladas y el cuadrado del
número de alarmas instaladas de tipo B. ¿Cuántas alarmas de cada tipo se deben instalar en la
empresa para maximizar su seguridad?
Alarmas tipo A = x
Alarmas tipo B = y
Condición: x + y = 9, luego y = 9-x
Función:
→
Los valores de la x que anulan la primera derivada son x = 9 y x = 3
![Page 19: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/19.jpg)
3.- Para la fabricación de determinado producto, se necesita invertir dinero en contratar emplea-
dos y comprar máquinas. El dueño de la fábrica ha estimado que si compra “x” máquinas y con-
trata “y” empleados, el número de unidades de producto que podría fabricar vendría dado por la
función: f(x, y) = 90xy2 Cada máquina le supone una inversión de 25 00 euros y cada contrato de
un nuevo empleado, otra de 15 00 euros. Si el empresario solo dispone de un presupuesto de 225
00 euros para este fin, determina el número de obreros que debe contratar y el número de má-
quinas que debe comprar para maximizar la producción.
Resolución
Llamamos x = n.º de máquinas; y = n.º de empleados
Hemos de maximizar la función f(x, y) = 90xy2.
Imponemos las restricciones del enunciado:
2500x + 1500y = 22500
Simplificando la función nos queda
5x + 3y = 45
Separando “Y” nos queda
y = 45-5x 3 2
F(x)=90x = 250x3 – 4500x2 + 20250x
Para que exista un máximo, ha de ser f'(x) = 0:
f'(x) = 750x2 – 9000x + 20250; f'(x) = 0
x = 3 y = 10
x = 9 y = 0
![Page 20: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/20.jpg)
Segunda derivada
f''(x) = 1500x – 9000
f''(3) = –4500 < 0 Hay un máximo en x = 3.
f''(9) = 4500 > 0 Hay un mínimo en x = 9
Para maximizar la producción, se deben contratar 10 empleados y comprar 3 máquinas.
![Page 21: Revista](https://reader033.vdocuments.site/reader033/viewer/2022042722/579056d91a28ab900c9af7c2/html5/thumbnails/21.jpg)