You are currently browsing the monthly archive for febrero 2016.

   Hace unos días veía un comentario preguntando sobre el error en un argumento donde se suponía que

\displaystyle  a/b = 6/4,

entonces

\displaystyle  4a = 6b.

Realizando la transformación

\displaystyle  14a-10a = 21b-15b.

Transponiendo términos

\displaystyle  15b-10a = 21b-14a.

Sacando un factor común

\displaystyle  5(3b-2a) = 7(3b-2a).

Simplificando el factor {(3b-2a)}, resulta {5=7}, lo que claramente es falso.

   Hay una cierta satisfacción filosófica en saber por qué las cosas funcionan, pero una persona pragmática puede argüir que uno solamente necesita saber cómo funcionan las cosas para resolver problemas de la vida real. La formación matemática que uno recibe en clases introductorias es sin duda el adecuado para que comience solucionando muchos problemas en física, química, biología, economía, ciencias de la computación, finanzas, ingeniería, o cualquier otra actividad que termine haciendo —y que sin duda puede aplicar cosas como la regla de la cadena, la regla de L’Hôspital, o la integración por partes, sin saber porqué funcionan estas reglas, o si existe alguna excepción a dichas reglas. Sin embargo, uno puede meterse en problemas si se aplican las reglas sin conocer de dónde vienen y cuáles son los límites de su aplicabilidad. Déjenme dar algunos ejemplos en los cuales muchas de estas reglas familiares, si son aplicadas a ciegas, sin un conocimiento del análisis subyacente, pueden conducir al desastre.

Ejemplo 1 (División por cero). Esto le debe resultar muy familiar: la ley de cancelación {ac = bc \implies a = b} no funciona cuando {c = 0}. Por ejemplo, la identidad {1 \times 0 = 2 \times 0} es cierta, pero si uno cancela ciegamente el {0}, entonces obtiene {1 = 2}, lo cual es falso. En este caso fue obvio que se dividió por cero; pero otros casos puede estar más oculto.

Ejemplo 2 (Series divergentes). Probablemente ha visto series geométricas como la de la suma infinita

\displaystyle  S = 1 + \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots

Probablemente ha visto el siguiente truco para sumar estar series: si llamamos a la suma anterior {S}, entonces si multiplicamos ambos lados por {2}, obtenemos

\displaystyle  2S = 2 + 1 + \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots = 2 + S

y, por lo tanto, {S = 2}, así la serie suma {2}. Sin embargo, si aplica el mismo truco para la serie

\displaystyle  S = 1 + 2 + 4 + 8 + 16 + \cdots

uno obtiene un resultado sin sentido:

\displaystyle  2S = 2 + 4 + 8 + 16 + \cdots = S - 1 \implies S = -1.

Así, el mismo razonamiento que muestra que {1 + \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots = 2}, también da que {1 + 2 + 4 + 8 + \cdots = -1}. ¿Por qué es cierta la primera ecuación, pero no la segunda? Un ejemplo similar surge con la serie

\displaystyle  S = 1 - 1 + 1 - 1 + 1 - 1 + \cdots;

podemos escribir

\displaystyle  S = 1 + (1 - 1 + 1 - 1 + \cdots) = 1 - S

y, por lo tanto, que {S = 1/2}; o, en su lugar, podemos escribir

\displaystyle  S = (1 - 1) + (1 - 1) + (1 - 1) + \cdots = 0 + 0 + \cdots

y, por lo tanto, que {S = 0}; o, en su lugar, podemos escribir

\displaystyle  S = 1 + (-1 + 1) + (-1 + 1) + \dotsb = 1 + 0 + 0 + \dotsb

y, por lo tanto, que {S = 1}. ¿Cuál es la correcta?

Ejemplo 3 (Secuencias divergentes). Aquí hay una pequeña variación del ejemplo anterior. Sea {x} un número real, y sea {L} el límite

\displaystyle  L = \lim_{n \rightarrow \infty} x^n.

Cambiando las variables {n = m + 1}, tenemos

\displaystyle  L = \lim_{m+1 \rightarrow \infty} x^{m+1} = \lim_{m+1 \rightarrow \infty} x \times x^m = x \lim_{m+1 \rightarrow \infty} x^m.

Pero si {m + 1 \rightarrow \infty}, entonces {m \rightarrow \infty}, por lo tanto

\displaystyle  \lim_{m+1 \rightarrow \infty} x^m = \lim_{m \rightarrow \infty} x^m = = \lim_{n \rightarrow \infty} x^n = L,

y así

\displaystyle  xL = L.

En este punto podríamos cancelar las {L}‘s y concluir que {x = 1} para un número real arbitrario {x}, lo que es absurdo. Pero ya que estamos conscientes del problema de la división por cero, podríamos ser un poco más inteligentes y concluir en su lugar que {x = 1} o { L = 0}. En particular, parece que hemos demostrado que

\displaystyle  \lim_{n \rightarrow \infty} x^n = 0 \text{ para todo } x \ne 1.

Pero esta conclusión es absurda si lo aplicamos a ciertos valores de {x}, por ejemplo, para el caso {x = 2} podríamos concluir que la secuencia {1, 2, 4, 8, \dotso} converge a cero, y para el caso {x = -1} podríamos concluir que la secuencia {1, -1, 1, -1, \dotso} también converge a cero. Estas conclusiones parecen ser absurdas; ¿cuál es el problema con el argumento anterior?

Ejemplo 4 (Valores límite de funciones). Se empieza por la expresión {\lim_{x \rightarrow \infty} \sin(x)}, se hace el cambio de variable {x = y + \pi} y recordando que {\sin(y + \pi) = -\sin(y)} para obtener

\displaystyle  \lim_{x \rightarrow \infty} \sin(x) = \lim_{y+\pi \rightarrow \infty} \sin(y + \pi) = \lim_{y \rightarrow \infty} (-\sin(y)) = -\lim_{y \rightarrow \infty} \sin(y).

Ya que {\lim_{x \rightarrow \infty} \sin(x) = \lim_{y \rightarrow \infty} \sin(y)} tenemos así que

\displaystyle  \lim_{x \rightarrow \infty} \sin(x) = -\lim_{x \rightarrow \infty} \sin(x)

y por lo tanto

\displaystyle  \lim_{x \rightarrow \infty} \sin(x) = 0.

Si hacemos entonces el cambio de variables {x = \pi/2 - z} y recordamos que {\sin(\pi/2 - z) = \cos(z)} concluimos que

\displaystyle  \lim_{x \rightarrow \infty} \cos(x) = 0.

Elevando al cuadrado ambos límites y sumándolos, vemos que

\displaystyle  \lim_{x \rightarrow \infty} (\sin^2(x) + \cos^2(x)) = 0^2 + 0^2 = 0.

Por otro lado, tenemos {\sin^2(x) + \cos^2(x) = 1} para todo {x}. Así, hemos demostrado que ¡{1 = 0}! ¿Cuál es la dificultad aquí?

Ejemplo 5 (Intercambiando sumas). Consideremos el siguiente hecho aritmético. Consideremos cualquier matriz de números, e.g.,

\displaystyle  \left({\begin{array}{ccc} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{array}}\right)

y calculemos la sumas de todas las filas y las sumas de todas las columnas , y entonces el total de las sumas de las filas y el total de las sumas de las columnas. En ambos casos obtendrá el mismo número —la suma total de todas las entradas en las matriz:

\displaystyle  \begin{array}{c@{ }c} \left(\begin{array}{ccc} \phantom{0}1 & \phantom{0}2 & \phantom{0}3 \\ \phantom{0}4 & \phantom{0}5 & \phantom{0}6 \\ \phantom{0}7 & \phantom{0}8 & \phantom{0}9 \end{array}\right) & \begin{array}{l}\phantom{0}6 \\ 15 \\ 24\end{array} \\ \begin{array}{ccc}12 & 15 & 18\end{array} & \begin{array}{l}45\end{array} \end{array}

Para ponerlo de otro modo, si desea sumar todas los elementos en una matriz {m \times n}, no importa si se suma las filas primero o las columnas primero, acabará con la misma respuesta. (Antes de la invención de las computadoras, los contadores usarían este hecho para evitar cometer errores al balancear sus libros.) En notación de serie, este hecho podría ser expresado como

\displaystyle  \sum_{i=1}^m \sum_{j=1}^n a_{ij} = \sum_{j=1}^n \sum_{i=1}^m a_{ij},

si {a_{ij}} denota el elemento de la {i}-ésima fila y {j}-ésima columna de la matriz.

   Ahora, uno puede pensar que esta regla debe extenderse fácilmente para series infinitas:

\displaystyle  \sum_{i=1}^\infty \sum_{j=1}^\infty a_{ij} = \sum_{j=1}^\infty \sum_{i=1}^\infty a_{ij},

En efecto, si usa series infinitas mucho en su trabajo, encontrará que intercambiar las sumas como estas es muy frecuentes. Otra manear de expresar este hecho es que en una matriz infinita, las sumas totales por filas debería ser igual a las sumas totales por columnas. Sin embargo, a pesar de lo razonable de esta afirmación, !es en realidad falsa! Aquí un contra ejemplo:

\displaystyle  \left({\begin{array}{rrrrr} 1 & 0 & 0 & 0 & \dotsb \\ -1 & 1 & 0 & 0 & \dotsb \\ 0 & -1 & 1 & 0 & \dotsb \\ 0 & 0 & -1 & 1 & \dotsb \\ 0 & 0 & 0 & -1 & \dotsb \\ \vdots & \vdots & \vdots & \vdots & \ddots \end{array}}\right)

Si suma todas las filas, y luego suma el total de las filas, obtiene {1}; pero si suma todas las columna, y luego suma el total de las columnas, obtiene ¡{0}! Así, ¿esto significa que las sumas para series infinitas no deben ser intercambiadas, y que se debería desconfiar de cualquier argumento que use un intercambio?

Ejemplo 6 (Intercambiando integrales). El intercambio de integrales es un truco que ocurre en matemáticas tan comúnmente como el intercambio de sumas. Suponiendo que uno quiere calcular el volumen bajo una superficie {x = f(x,y)} (ignoramos los límites de integración por el momento). Uno puede hacerlo mediante el corte paralelo al eje {x}: por cada valor fijo de {y}, se puede calcular el área {\int f(x,y) \,dx}, y entonces integramos el área en la variable {y} para obtener el volumen

\displaystyle  V = \int\int f(x,y) dx dy.

O podría cortar paralelo al eje {y} para cada {x} fijo y calcular el área {\int f(x,y) \,dy}, y entonces integrar en el eje {x} para obtener

\displaystyle  V = \int\int f(x,y) dy dx.

Esto parece sugerir que uno siempre debe ser capaz de intercambiar los signos integrales:

\displaystyle  \int\int f(x,y) dx dy = \int\int f(x,y) dy dx.

Y en efecto, las personas cambian los signos integrales todo el tiempo, porque a veces una variable es más sencilla para integrar primero que la otra. Sin embargo, como en las sumas infinitas a veces no es posibles intercambiarlas, las integrales son también en ocasiones peligrosas para intercambiar. Un ejemplo se da con el integrando {e^{-xy} - xye^{-xy}}. Supongamos que creemos que podemos intercambiar las integrales:

\displaystyle  \int_0^\infty \int_0^1 (e^{-xy} - xye^{-xy}) \, dy \,dx = \int_0^1 \int_0^\infty (e^{-xy} - xye^{-xy}) \, dx \,dy.

Ya que

\displaystyle  \int_0^1 (e^{-xy} - xye^{-xy}) \, dy = ye^{-xy}|_{y=0}^{y=1} = e^{-x},

el lado izquierdo es {\int_0^\infty e^{-x} \, dx = -e^{-x}|_{0}^{\infty} = 1}. Pero, ya que

\displaystyle  \int_0^\infty (e^{-xy} - xye^{-xy}) \, dx = xe^{-xy}|_{x=0}^{x=\infty} = 0,

el lado derecho es {\int_0^1 0 \, dx = 0}. Sin duda, {1 \ne 0}, por lo que existe un error en algún lugar; pero no lo encontrará buscándolo dondequiera, excepto en el paso donde intercambiamos las integrales. Así que ¿cómo sabemos cuándo confiar en el intercambio de integrales?

Ejemplo 7 (Intercambiando límites). Supongamos que empezamos viendo convincentemente la expresión

\displaystyle   \lim_{x \rightarrow 0} \lim_{y \rightarrow 0} \frac{x^2}{x^2 + y^2} = \lim_{y \rightarrow 0} \lim_{x \rightarrow 0} \frac{x^2}{x^2 + y^2} \ \ \ \ \ (1)

Pero tenemos

\displaystyle  \lim_{y \rightarrow 0} \frac{x^2}{x^2 + y^2} = \frac{x^2}{x^2 + 0^2} = 1,

así, el lado izquierdo de (1) es {1}; por otro lado, tenemos

\displaystyle  \lim_{x \ to 0} \frac{x^2}{x^2 + y^2} = \frac{x^2}{x^2 + y^2} = 0,

así, el lado derecho de (1) es {0}. Ya que, evidentemente, {1} no es igual a {0}, esto sugiere que el intercambio de límites es poco fiable. Pero ¿existen otras circunstancias en las que el intercambio de límites es legítimo?

Ejemplo 8 (Intercambiando límites, otra vez). Consideremos ver convincentemente la expresión

\displaystyle  \lim_{x \rightarrow 1^-} \lim_{n \rightarrow \infty} x^n = \lim_{x \ to 1^-} \lim_{n \rightarrow \infty} x^n

donde la notación {x \rightarrow 1^-} significa que {x} se aproxima a {1} desde la izquierda. Cuando {x} es la izquierda de {1}, entonces {\lim_{n \rightarrow \infty} x^n = 0}, y por lo tanto, el lado izquierdo es cero. Pero, también tenemos que {\lim_{x \rightarrow 1^-} x^n = 1} para toda {n}, y por lo tanto, el lado derecho tiene límite {1}. ¿Esto demuestra que este tipo de intercambio de límites es siempre inseguro?

Ejemplo 9 (Intercambiando límites e integrales). Para cualquier número real {y}, tenemos

\displaystyle  \int_{-\infty}^\infty \frac{1}{1 + (x-y)^2} \,dx = \arctan(x - y)|_{x=-\infty}^\infty = \frac{\pi}{2} - \left({-\frac{\pi}{2}}\right) = \pi.

Tomando los límites como {y \rightarrow \infty}, deberíamos obtener

\displaystyle  \int_{-\infty}^\infty \lim_{y \rightarrow \infty} \frac{1}{1 + (x-y)^2} \,dx = \lim_{y \rightarrow \infty} \int_{-\infty}^\infty \frac{1}{1 + (x-y)^2} \,dx = \pi.

Pero, para cada {x}, tenemos {\lim_{y \rightarrow \infty} \frac{1}{1 + (x-y)^2} = 0}. Así, vemos que se ha concluido que {0 = \pi}. ¿Cuál es el con problema con el argumento anterior? ¿Uno debería abandonar la técnica (muy útil) de intercambiar límites e integrales?

Ejemplo 10 (Intercambiando límites y derivadas). Observe que si {\epsilon > 0}, entonces

\displaystyle  \frac{d}{dx} \left({\frac{x^3}{\epsilon^2 + x^2}}\right) = \frac{3x^2(\epsilon^2 + x^2) - 2x^4}{(\epsilon^2 + x^2)^2}

y, en particular, que

\displaystyle  \frac{d}{dx} \left({\frac{x^3}{\epsilon^2 + x^2}}\right)\Big|_{x=0} = 0.

Tomando límites como {\epsilon \rightarrow 0}, entonces uno puede esperar que

\displaystyle  \frac{d}{dx} \left({\frac{x^3}{0 + x^2}}\right)\Big|_{x=0} = 0.

Pero el lado derecho es {\frac{d}{dx} x = 1}. ¿Esto significa que siempre es ilegítimo intercambiar los límites y derivadas?

Ejemplo 11 (Intercambiando derivadas). Sea* {f(x,y)} la función {f(x,y) := \frac{xy^3}{x^2 + y^2}}. Un maniobra común en análisis es intercambiar las dos derivadas parciales; así, uno espera

\displaystyle  \frac{\partial^2 f}{\partial x \partial y} (0,0) = \frac{\partial^2 f}{\partial y \partial x} (0,0).

Pero, por la regla del cociente, tenemos

\displaystyle  \frac{\partial f}{\partial y} (x,y) = \frac{3xy^2}{x^2 + y^2} - \frac{2xy^4}{(x^2 + y^2)^2}

y, en particular

\displaystyle  \frac{\partial f}{\partial y} (x, 0) = \frac{0}{x^2} - \frac{0}{x^4} = 0.

Así

\displaystyle  \frac{\partial^2 f}{\partial x \partial y} (0,0) = 0.

Por otro lado, nuevamente, por la regla del cociente, tenemos

\displaystyle  \frac{\partial f}{\partial x} (x,y) = \frac{y^3}{x^2 + y^2} - \frac{2x^2y^3}{(x^2 + y^2)^2}

y, por lo tanto

\displaystyle  \frac{\partial f}{\partial x} (0,y) = \frac{y^3}{y^2} - \frac{0}{y^4} = y.

Así

\displaystyle  \frac{\partial^2 f}{\partial x \partial y} (0,0) = 1.

Ya que {1 \ne 0}, vemos que el intercambio de derivadas es poco fiable. Pero ¿hay otras circunstancias en las que el intercambio de derivadas es legítimo?

(Uno puede objetar que esta función no está definida en {(x,y) = (0,0)}, pero si establecemos {f(0,0) := (0.0)} entonces esta función se vuelve continua y diferenciable para todo {(x,y)}, y, de hecho, ambas derivadas parciales {\frac{\partial}{\partial x}, \frac{\partial}{\partial y}} ¡son continuas y diferenciables para todo {(x,y)}!)

Anuncios

Categorías