revista

21
REPÚBLICA BOLIVARIANA DE VENEZUELA INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” EXTENSION MARACAY OPTIMIZACION SIN RESTRICCIONES Y METODO LAGRANGE Alumnos Luis A. Lamón E. C.I V-13.715.731 Rudy Herrera C.I V-18.469.239

Upload: rudy-herrera

Post on 22-Jul-2016

216 views

Category:

Documents


2 download

DESCRIPTION

optimización sin restricciones

TRANSCRIPT

Page 1: Revista

REPÚBLICA BOLIVARIANA DE VENEZUELA

INSTITUTO UNIVERSITARIO POLITÉCNICO

“SANTIAGO MARIÑO”

EXTENSION MARACAY

OPTIMIZACION SIN RESTRICCIONES

Y

METODO LAGRANGE

Alumnos

Luis A. Lamón E. C.I V-13.715.731

Rudy Herrera C.I V-18.469.239

Page 2: Revista

Maracay Junio del 2015

OPTIMIZACIÓN DE FUNCIONES SIN RESTRICCIÓN

Optimizar una función es el proceso que permite encontrar el valor máximo y/o mínimo que

puede tomar una función así como aquellos valores de la variable independiente que hacen

que la función sea óptima.

Una buena técnica de optimización de variables es fundamental por al menos tres razones:

En muchos problemas las restricciones se pueden incluir dentro de la función objetivo, por lo

que la dimensionalidad del problema se reduce a una variable.

Algunos problemas sin restricciones, inherentemente incluyen una única variable.

Las técnicas de optimización con y sin restricciones, generalmente incluyen pasos de búsque-

da unidireccional en sus algoritmos.

En optimización sin restricciones se minimiza una función objetivo que depende de variables

reales sin restricciones sobre los valores de esas variables.

La formulación matemática es:

(OSR) = _minx f(x) ∈IRn

Donde f es una función suficientemente regular.

Page 3: Revista

FUNCIONES OBJETIVO DE DOS VARIABLES

Para que una función como z = f (x,y) tenga un mínimo o máximo relativo, tres condiciones

deben ser satisfechas:

Las derivadas parciales de primer orden deben simultáneamente ser iguales a cero. Ello indica

que en un punto dado (a,b) llamado “punto crítico”, la función no está creciendo ni decrecien-

do con respecto a los ejes principales sino a una superficie relativa

Las derivadas parciales de segundo orden deben ser negativas cuando ellas son evaluadas en

el punto crítico (a,b) para un máximo relativo y positivas para un mínimo relativo. Ello asegu-

ra que la función es cóncava y moviéndose hacia abajo en relación a los ejes principales en el

caso de un máximo relativo y la función es convexo y moviéndose hacia arriba en relación a

los ejes principales en el caso de un mínimo relativo.

El producto de las derivadas parciales de segundo orden evaluadas en el punto crítico deben

exceder el producto de las derivadas parciales cruzadas también evaluadas en dicho punto.

Esta condición adicional es necesaria para evitar un punto de inflexión o punto de silla

Page 4: Revista

METODO DE BUSQUEDA DIRECTA

EL MÉTODO SIMPLEX

El Método Simplex es un método analítico de solución de problemas de programación lineal

capaz de resolver modelos más complejos que los resueltos mediante el método gráfico sin

restricción en el número de variables.

El Método Simplex es un método iterativo que permite ir mejorando la solución en cada paso.

La razón matemática de esta mejora radica en que el método consiste en caminar del vértice

de un poliedro a un vértice vecino de manera que aumente o disminuya (según el contexto de

la función objetivo, sea maximizar o minimizar), dado que el número de vértices que presenta

un poliedro solución es finito siempre se hallará solución.

Este famosísimo método fue creado en el año de 1947 por el estadounidense George Bernard

Dantzig y el ruso Leonid Vitalievich Kantorovich, con el ánimo de crear un algoritmo capaz de

solucionar problemas de m restricciones y n variables.

El Método Simplex trabaja basándose en ecuaciones y las restricciones iniciales que se modelan me-

diante programación lineal no lo son, para ello hay que convertir estas inecuaciones en ecuaciones uti-

lizando unas variables denominadas de holgura y exceso relacionadas con el recurso al cual hace refe-

rencia la restricción y que en el tabulado final representa el "Slack or surplus" al que hacen referencia

los famosos programas de resolución de investigación de operaciones, estas variables adquieren un

gran valor en el análisis de sensibilidad y juegan un rol fundamental en la creación de la matriz identi-

dad base del Simplex.

Page 5: Revista

MÉ TODO DÉ LA MATRIZ HÉSSIANA PARA FUNCIONÉS DÉ DOS VARIABLÉS

En Matemática, la matriz hessiana de una función f de n variables, es la matriz cuadrada de n × n, de las

segundas derivadas parciales como por ejemplo:

Si tenemos un ejercicio con dos variables, obtendremos una matriz hessiana 2 x 2. Si el ejercicio fuera de

tres variables, la matriz gesiana será 3 x 3, y así sucesivamente. Para el caso de dos variables, la matriz hes-

siana 2 x 2 se genera de la siguiente manera:

Pasos a seguir para encontrar máximos y mínimos utilizando matrices Hessianas

Tener la función original que se va a trabajar.

Calcular las primeras derivadas parciales de la función con respecto a cada una de las variables que se tie-

ne la función original.

Page 6: Revista

cada elemento de la matriz hessiana, ya sea matriz 2 x 2 (si la función es de 2 variables), 3 x 3 (si la fun-

ción es de 3 variables), 4 x 4 (si la función es de 4 variables), n x n (si la función es de n variables).

Resolver la matriz hessiana normalmente cómo se resuelve la determinante de una matriz cuadrada. El

resultado que se obtenga de la matriz hessiana es la respuesta

Sólo tiene un punto crítico:

, es un mínimo relativo

Page 7: Revista

MÉTODO QUASI-NEWTON

Los métodos Quasi-Newton, se utilizan si la derivada de la función objetivo es difícil de calcular, o

ésta viene dada de forma numérica. Se basan en sustituir las derivadas por aproximaciones en di-

ferencias finitas.

La idea fundamental de los métodos Quasi-Newton es intentar construir una aproximación de la inversa

del Hessiano, usando información obtenida durante el proceso de descenso Estos métodos son similares a

los métodos de gradiente conjugado en el sentido de que se basan principalmente en propiedades de las

funciones cuadráticas. Sin embargo, en el método del gradiente conjugado, la principal fortaleza de la bús-

queda se deriva del uso de las direcciones conjugadas de búsqueda, mientras que los métodos de Quasi-

Newton están diseñados para imitar más directamente las características positivas del método de Newton pero

usando solo información de primer orden.

Ejemplo

Etapa 1: (Punto inicial). Se toma

Por tanto coincide con el método de la máxima pendiente, resultando t = 2 y

Page 8: Revista

Etapa 2: (Generación de la dirección de búsqueda). Para usar la fórmula de DFP se necesitan los vec-tores y matrices:

necesitan los vectores y matrices:

Page 9: Revista

MÉTODO NEWTON - RAPHSON

El método de Newton (conocido también como el método de Newton-Raphson o el método de New-

ton-Fourier) fue descrito por Isaac Newton. Es un algoritmo eficiente para encontrar aproximacio-

nes de los ceros o raíces de una función real. También puede ser usado para encontrar el máximo o

mínimo de una función, encontrando los ceros de su primera derivada.

Este método parte de una aproximación inicial x0 y obtiene una aproximación mejor, x1, dada por

La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor. Efectivamente,

sea r un cero de f y sea x una aproximación a r tal que r=x+h. Si f'' existe y es continua, por el teore-

ma de Taylor tenemos:

0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2)

en donde h=r-x. Si x está próximo a r (es decir h es pequeña), es razonable ignorar el término O(h2):

0 = f(x) + hf'(x)

por lo que obtenemos la siguiente expresión para h:

Page 10: Revista

teniendo en cuenta que r=x+h es fácil derivar

El método de Newton tiene una interpretación geométrica sencilla, como se puede apreciar del análisis

de la figura. De hecho, el método de Newton consiste en una linealización de la función, es decir, f se re-

emplaza por una recta tal que contiene al punto (x0,f(x0)) y cuya pendiente coincide con la derivada de la

función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se obtiene de la intersección de la función

linear con el eje X de ordenadas.

Veamos cómo podemos obtener la ecuación a partir de lo dicho en el párrafo anterior. La ecuación de la

recta que pasa por el punto (x0,f(x0)) y de pendiente f'(x0) es:

y - f(x0) = f'(x0)(x-x0)

de donde, haciendo y=0 y despejando x obtenemos la ecuación de Newton-Raphson

El método de Newton es muy rápido y eficiente ya que la convergencia es de tipo cuadrático (el nú-

mero de cifras significativas se duplica en cada iteración). Sin embargo, la convergencia depende en

gran medida de la forma que adopta la función en las proximidades del punto de iteración.

Page 11: Revista

MÉ TODO DÉL GRADIÉNTÉ CONJUGADO

En matemática, el método del gradiente conjugado es un algoritmo para resolver numéricamente los siste-

mas de ecuaciones lineales cuyas matrices son simétricas y definidas positivas. Es un método iterativo, así

que se puede aplicar a los sistemas dispersos que son demasiado grandes para ser tratados por métodos di-

rectos como la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve numé-

ricamente las ecuaciones en derivadas parciales.

El método del gradiente conjugado se puede utilizar también para resolver los problemas de optimización sin

restricciones como la minimización de la energía.

El método del gradiente biconjugado proporciona una generalización para matrices no simétricas. Varios mé-

todos del gradiente conjugado no lineales busca los mínimos de las ecuaciones no lineales.

Éjemplo:

Etapa 1: (Punto inicial). Se toma x(1) = (0, 0)T. De nuevo, la dirección de búsqueda es

Page 12: Revista

, por lo que no se repite, y se hace: t=2 y x2 = (0,1/2)T.

Etapa 2: (Generación de la dirección de búsqueda). Se obtiene.

y se calcula la dirección de búsqueda como:

Etapa 3: (Comprobación de optimalidad). Como d(2) ≠0, se trata de una dirección de descenso.

Etapa 4: (Búsqueda lineal). Para calcular el salto, se resuelve el problema:

Page 13: Revista

Minimizar

puesto que

Se obtiene

el valor óptimo de la búsqueda lineal es: α2=1 > 0.

Etapa 5: ( Actualización). Se hace

Etapa 6: (Comprobación de optimalidad). Puesto que x(3) satisface

se ha alcanzado el óptimo, y el algoritmo para.

Para el caso de funciones cuadráticas convexas, el óptimo se alcanza tras un número de iteraciones igual

a la dimensión de la matriz hesiana.

Page 14: Revista

METODO DE LAGRANGE

El método lagrangian (también conocido como multiplicadores lagrangian) lo propuso Joseph Louis

Lagrange (1736-1813), un matemático nacido en Italia. Sus multiplicadores lagrangian tienen aplicacio-

nes en una variedad de campos, incluyendo el físico, astronomía y económica. La lectura de una obra

del astrónomo inglés Edmund Halley despertó su interés, y, tras un año de incesante trabajo, era ya un

matemático consumado. Nombrado profesor de la Escuela de Artillería, en 1758 fundó una sociedad,

con la ayuda de sus alumnos, que fue incorporada a la Academia de Turín.

PARA QUÉ SIRVE EL MÉTODO DE LOS MULTIPLICADORES DE LAGRANGE?

El método de los Multiplicadores de Lagrange, es un procedimiento para encontrar los máximos míni-

mos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restrin-

gido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restriccio-

nes, y cuyas ecuaciones pueden ser resueltas más fácilmente. El método dice que los puntos donde la

función tiene un extremo, condicionado con k restricciones, están entre los puntos estacionarios de una

nueva función sin restricciones construida como una combinación lineal de la función y las funciones implica-

das en las restricciones, cuyos coeficientes son los multiplicadores.

Page 15: Revista

La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se

trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las

derivadas parciales con respecto a las variables independientes de la función sean iguales a cero.

OBJETIVOS DEL MÉTODO DE LAGRANGE

Visualizar algunas superficies cuádricas y curvas de nivel para distintos valores de la variable z.

Identificar, a través de los simuladores, los puntos (x,y) sobre la curva correspondiente a la función

restricción donde la función principal tiene extremos.

Interpretar gráficamente los resultados obtenidos empleando el método de multiplicadores de La-

grange.

Aproximar las soluciones del problema a partir de la observación en el simulador, de las curvas de

nivel de la función principal y la curva correspondiente a la función condicionante.

Adquirir habilidad en la resolución de problemas de optimización en un ambiente computacional.

Page 16: Revista

CARACTERÍSTICAS

Todos los óptimos que verifiquen las condiciones de regularidad establecidas tienen asociados los corres-

pondientes multiplicadores.

El teorema de Lagrange establece una condición necesaria de optimalidad (bajo las condiciones de regu-

laridad).

El método de eliminación de variables no resulta operativo cuando el problema tiene muchas restriccio-

nes o las restricciones son complejas, por lo que resulta muy útil éste método.

Los Multiplicadores de Lagrange es un método alternativo que además proporciona más información

sobre el problema.

AYUDAS QUE BRINDA

Para la Solución de Problemas de Optimización Dinámica: La resolución de un problema de interpola-

ción lleva a un problema de álgebra lineal en el cual se debe resolver un sistema de ecuaciones. Usando

una base monómica estándar para el polinomio interpolador, se llega a la matriz de Vandermonde. Eli-

giendo una base distinta, la base de Lagrange, se llega a la forma más simple de matriz identidad = δi

que puede resolverse inmediatamente.

EJEMPLO

Si f(x) es continua en el intervalo cerrado [a,b] y derivable en todo punto del intervalo abierto (a,b), en-

tonces existe al menos un punto c donde f'(c) = (f(b) - f(a))/(b - a).

H) f(x) es continua en [a,b] f(x) es derivable en (a,b)

T) Existe c perteneciente a (a,b) / f'(c)=(f(b) - f(a))/(b - a)

Geométricamente, (f(b) - f(a))/(b - a) es la tangente del án-

gulo que forma la secante que pasa por los puntos A(a,f(a))

y B(b,f(b)) de la curva, con el eje ox. f'(c) es la tangente del

ángulo que forma la recta tangente a la curva en el punto c,

con el eje ox.

Entonces, el teorema expresa que existe al menos un punto

en el intervalo (a,b) donde la tangente a la curva es paralela

a la recta que pasa por A y B.

Page 17: Revista

Ejercicios Propuestos:

1.- Calcula dos números que cumplan que al sumarlos resulte 10 y la resta de uno de

ellos menos el inverso del otro sea mínima.

Condición: x + y = 10, de donde y = 10-x

Condición: x + y = 10, de donde y = 10-x

La función:

Page 18: Revista

2.- Una empresa ha decidido mejorar su seguridad instalando 9 alarmas. Un especialista en el

tema señala que dada la estructura de la empresa sólo puede optar por dos tipos de alarmas, de

tipo A o de tipo B; además, afirma que la seguridad de la empresa se puede expresar como la

décima parte del producto entre el número de alarmas de tipo A instaladas y el cuadrado del

número de alarmas instaladas de tipo B. ¿Cuántas alarmas de cada tipo se deben instalar en la

empresa para maximizar su seguridad?

Alarmas tipo A = x

Alarmas tipo B = y

Condición: x + y = 9, luego y = 9-x

Función:

Los valores de la x que anulan la primera derivada son x = 9 y x = 3

Page 19: Revista

3.- Para la fabricación de determinado producto, se necesita invertir dinero en contratar emplea-

dos y comprar máquinas. El dueño de la fábrica ha estimado que si compra “x” máquinas y con-

trata “y” empleados, el número de unidades de producto que podría fabricar vendría dado por la

función: f(x, y) = 90xy2 Cada máquina le supone una inversión de 25 00 euros y cada contrato de

un nuevo empleado, otra de 15 00 euros. Si el empresario solo dispone de un presupuesto de 225

00 euros para este fin, determina el número de obreros que debe contratar y el número de má-

quinas que debe comprar para maximizar la producción.

Resolución

Llamamos x = n.º de máquinas; y = n.º de empleados

Hemos de maximizar la función f(x, y) = 90xy2.

Imponemos las restricciones del enunciado:

2500x + 1500y = 22500

Simplificando la función nos queda

5x + 3y = 45

Separando “Y” nos queda

y = 45-5x 3 2

F(x)=90x = 250x3 – 4500x2 + 20250x

Para que exista un máximo, ha de ser f'(x) = 0:

f'(x) = 750x2 – 9000x + 20250; f'(x) = 0

x = 3 y = 10

x = 9 y = 0

Page 20: Revista

Segunda derivada

f''(x) = 1500x – 9000

f''(3) = –4500 < 0 Hay un máximo en x = 3.

f''(9) = 4500 > 0 Hay un mínimo en x = 9

Para maximizar la producción, se deben contratar 10 empleados y comprar 3 máquinas.

Page 21: Revista