Professional Documents
Culture Documents
df ( x) f ( x x) f ( x)
lim x0 . Esta derivada de f en x es la pendiente de una
dx x
lnea recta que es tangente a la curva en el punto (x, f(x)). Para que exista la derivada en
dicho punto se requiere que la curva sea suave. Segundo, la lnea tangente es una buena
aproximacin de la funcin, en torno a x. Por ltimo, notar que la derivada define una
nueva funcin sobre x, a partir de f
dy df dg
(i ) Si y f ( x) g ( x)
dx dx dx
dy df dg
(ii ) Si y f ( x) g ( x) g ( x) f ( x)
dx dx dx
df dg
g ( x) f ( x)
f ( x) dy dx dx
(iii ) Si y 2
g ( x) dx [ g ( x)]
dy df dg
(iv ) Si y f ( g ( x))
dx dg dx
Derivadas ms utilizadas en economa
dy
(i ) Si y c 0
dx
dy
(ii ) Si y ax n nax n 1 con n, a
dx
dy
(iii ) Si y e x ex
dx
dy 1
(iv ) Si y ln( x)
dx x
Una vez que encontramos la funcin derivada f(x), podemos indicar si la funcin es
creciente para algn rango de valores de S. Sea A S y distinto de vaco. Se dice que la
funcin f es creciente en el rango A si f(x) 0 x A. Lo anterior significa que la
pendiente, de la lnea tangente, debe ser positiva. Por el contrario, f es decreciente si lo
inverso es cierto.
Funcin creciente
f(x)
f(x0)
x
x0
df (x) d 2 f ( x) f (x x) f (x)
f (x) lim x0
dx dx 2
x
Se ha asumido que la segunda derivada existe, por lo que f(x) debe ser una funcin
suave. El signo de la segunda derivada determina si el grfico de la funcin es cncavo
o convexo, para algn rango de valores de x. Sea [x0, x1] S y x pertenece a intervalo.
Se puede expresar cualquier valor de x como una combinacin lineal de x0 y x1, es decir
x = x0 + (1-)x1 con 0 1. Asumiendo que f(x) esta definida para todo valor de x
perteneciente a dicho intervalo, se dice que f(x) es cncava si f(x) f(x0) + (1-)f(x1).
La funcin es estrictamente cncava en dicho intervalo si la desigualdad es estricta. Si
lo contrario es cierto entonces se dice que la funcin es convexa (estrictamente).
Concavidad significa grficamente que si trazamos una lnea recta que une los puntos
extremos del grfico de f entonces esta lnea esta por debajo de f. Todo lo contrario
ocurre si f es convexa
Notar que una funcin puede ser cncava/convexa, pero puede ser creciente o
decreciente en x.
Funcin cncava
f(x) f(x)
f(x1) f(x0)
f(x0)+(1-)f(x1)
f(x0) f(x0)+(1-)f(x1)
f(x1)
x0 x1 x0 x1 x
x
2. Regla de la cadena:
La regla de la cadena es bastante importante en economa, sobre todo para llevar a cabo
la esttica comparativa. Sea y = f(x): y x = g(t): . La regla establece que
dy df dg
( g (t )) (t )
dt dx dt
3. Mnimos y mximos locales para funciones en una variable.
Para encontrar un mximo global de una funcin, se deben hallar todos los mximos
locales, compararlos entre si y eligiendo al mayor de todos. Finalmente debemos ver si
este mximo domina a todos los x a medida que nos aproximamos a los lmites del
dominio (a medida que x ).
4. Derivada implcita.
Cuando la relacin entre x e y es dada implcitamente por una ecuacin, esta tcnica es
utilizada parar determinar si y es una funcin diferenciable en x y para encontrar la
derivada. Por ejemplo sea la curva definida por x + y + y5 = 3. Esta curva define una
relacin implcita entre x e y (en contraposicin a y = x 2 + 3, que es una relacin
explcita), pero no podemos resolver la ecuacin para determinar explcitamente y en
funcin de x.
3. Suponer que f(x) es derivable y diferenciar ambos lados de la identidad con respecto
a x. Debido a que la identidad siempre se cumple, la derivada del lado derecho debe
ser siempre igual al del lado izquierdo. As, volviendo a nuestro problema inicial
tenemos que: 1 + f(x) + 5(f(x))4f(x) 0. Asimismo, notar que en el lado izquierdo
se ha utilizado la regla de la cadena.
Para una funcin en varias variables, si mantenemos constante todas las variables salvo
una tenemos lo que se conoce como derivada parcial, que se define de manera similar a
la derivada en una variable. De esta manera, si para la funcin f(x, y, z) se mantiene
constante x, z (por ejemplo, x = x0 y z = z0) entonces la derivada parcial de f con
respecto a y, en el punto (x0, y0, z0) es:
f ( x0 , y 0 , z 0 ) f ( x0 , y 0 y, z 0 ) f ( x0 , y 0 , z 0 )
lim y 0
y y
Las derivadas parciales tiene la misma interpretacin que una derivada tradicional para
f ( x, y, z )
una funcin en una variable: si slo x cambia entonces nos da la mejor
x
aproximacin lineal del efecto del cambio marginal de x sobre f. As,
f ( x, y, z )
f x . El vector con las derivadas parciales se conoce como vector de
x
gradientes.
y n
y xi
t k i xi t k
x1 = t1 + t2
x2= t1t2
y y x1 y x2
(1 x2 )1 x1t 2
t1 x1 t1 x2 t1
f ( x, y, z )
x 2 f
2 f xx
x x
f ( x, y, z )
x 2 f
f xy
y yx
Teorema de Young: Si f: n y fx, fy existen y fxy, fyx son continuas en (x0, y0)
entonces fxy(x0, y0) = fyx(x0, y0).
6. Optimizacin sin restricciones.
En esta seccin revisaremos las propiedades para ptimos locales. Desarrollaremos las
condiciones necesarias y suficientes para un problema de optimizacin y que debe
satisfacer cualquier punto local ptimo.
Definicin: f tiene un mximo (mnimo) local en a si existe un > 0 tal que f(x) f(a)
(f(x) f(a)) para todo x con x a (norma vectorial) <
Sea f(a) el vector con las primeras derivadas parciales y [fij(a)] la matriz con las
segundas derivadas (matriz Hessiana).
Notar que la matriz es de nxn. Se dice que la matriz [fij(a)] es negativa definida si los
menores principales de la matriz se alternan de signo, empezando con f11 < 0,
f 11 f 21
0
f 12 f 22
evaluando en x = a
f 11 f 21 f 31
f 12 f 22 f 32 0
f 13 f 23 f 33
Se dice que la matriz [fij(a)] es positiva definida si los menores principales de la matriz
tiene siempre signo positivo es decir
f 11 0
f 11 f 21
0 evaluando en x = a
f 12 f 22
f 11 f 21 f 31
f 12 f 22 f 32 0
f 13 f 23 f 33
Ejemplo: Sea f(x, y) = -3x2 + xy 2x + y y2 + 1
6x y 2 6 1
f ; [ f xy ]
x 1 2y 1 2
6 1
f xx 6 0 11 0
1 2
As que [fxy] es negativa definida as que la funcin tiene un mximo local estricto
cuando f(x, y) = 0.
Por lo tanto:
6x y 2 6 1 x 2 0
f
1 2 y 1 0
x 1 2y
3
1
x 6 1 1
2 2 1 11
2
y 1 2 1 11 1 6 1 4
11
7. Esttica comparativa.
Suponga que queremos determinar cmo la eleccin ptima de los calores de las
variables independientes varan (o se comportan) si hay un cambio en el parmetro a.
Por ejemplo sea f(x1, x2, a) una funcin donde a y constante.
f ( x1 (a), x 2 (a), a)
0
x1
f ( x1 (a), x 2 (a), a)
0
x 2
1
x1(a) f 11 f12 f1a
f 22
x 2 (a) f 21 f 2a
Para que la matriz sea definida negativa se requiere que U1(x1*) < 0 y
U1(x1*) U2(x2*) > 0, por lo que se requiere que U2(x2*) < 0.
De esta forma, si se aplica esttica comparativa tenemos que:
1 0
x *
El signo de 1 signo de <0
a
1 U 2 ( x 2* )
Suponga que nos interesa maximizar (o minimizar) f(.) sujeto a gk(.) = ck, donde ck es
una constante real. Este problema se resuelve de muchas formas, pero utilizaremos el
popular mtodo de los multiplicadores de Lagrange.
b) Todas las restricciones deben ser escritas como hk(.) = gk(.) - ck.
L(1, ..,k, x1,,xn) = f(x1,.,xn) - k = 1 khk(x1,, xn, ck), donde k se conocen como
los multiplicadores de Lagrange.
L
0 t 1,..., n
xt
L L
0, k 0 k 0 k 1,..., m
k k
L1 f 2 ... 0
Sea r = 1,,n I
Para dos restricciones; Dr > 0 para todo r para un mnimo. D1 < 0 y los
determinantes van alterando de signo, a medida que r aumenta, para un
mximo.