You are currently browsing the category archive for the ‘math.MISC’ category.

   Hola a todos. Recuperando un tanto el ritmo, vuelvo con un pequeño problema. Se conoce como la identidad de Hermite. Empecemos enunciándolo.

Proposición 1. Sea {m} un entero positivo y {\alpha} un número real. Tenemos que

\displaystyle  \lfloor\alpha\rfloor+\left\lfloor\alpha+\frac1m\right\rfloor+\dotsm+\left\lfloor\alpha+\frac{m-1}m\right\rfloor+=\lfloor ma\rfloor.

   Bien, sea

\displaystyle  f(x)=\lfloor mx\rfloor-\lfloor x\rfloor-\left\lfloor x+\frac1m\right\rfloor-\left\lfloor x+\frac2m\right\rfloor-\dotsm-\left\lfloor x+\frac{m-1}m\right\rfloor.

   Para los números reales {\alpha, \beta}, se cumple {\lfloor\alpha+1\rfloor-\lfloor\beta+1\rfloor=\lfloor\alpha\rfloor-\lfloor\beta\rfloor}, de manera que

\displaystyle  \begin{aligned} f\left(x+\frac1m\right)&=\lfloor mx+1\rfloor-\left\lfloor x+\frac1m\right\rfloor-\left\lfloor x+\frac2m\right\rfloor-\dotsb-\left\lfloor x+\frac{m-1}m\right\rfloor-\lfloor x+1\rfloor\\&= \lfloor mx\rfloor-\lfloor x\rfloor-\left\lfloor x+\frac1m\right\rfloor-\left\lfloor x+\frac2m\right\rfloor-\dotsb-\left\lfloor x+\frac{m-1}m\right\rfloor\\ &=f(x).\end{aligned}

   Por otro lado, para {0\le x<1/m} se tiene que {f(x)=0} y, así, se cumple {f(x)=0} para cualquier {x}, como se deseada.

   Para otra manera de mostrar la identidad, supongamos que {l/m\le\alpha-\lfloor\alpha\rfloor<(l+1)/m}, {0\le l< m} y {l} es un número natural. Entonces {l\le m(\alpha-\lfloor\alpha\rfloor)<l+1} y así {\lfloor m\alpha\rfloor=l+m\lfloor\alpha\rfloor}. Además

\displaystyle  \left\lfloor\alpha+\frac{k}{m}\right\rfloor-\lfloor\alpha\rfloor=\begin{cases}0,\quad0\leqslant k<m-l,\:k\in\Bbb{N}\\1,\quad m-l\leqslant k<m.\end{cases}

Por lo tanto

\displaystyle  \sum_{k=0}^{m-1}\left\lfloor\alpha+\frac{k}{m}\right\rfloor=(m-l)\lfloor\alpha\rfloor+l+l\lfloor\alpha\rfloor=l+m\lfloor\alpha\rfloor=\lfloor m\alpha\rfloor.

   Y así, ya nos veremos en una próxima publicación. 😉

   Hace unos días veía un comentario preguntando sobre el error en un argumento donde se suponía que

\displaystyle  a/b = 6/4,

entonces

\displaystyle  4a = 6b.

Realizando la transformación

\displaystyle  14a-10a = 21b-15b.

Transponiendo términos

\displaystyle  15b-10a = 21b-14a.

Sacando un factor común

\displaystyle  5(3b-2a) = 7(3b-2a).

Simplificando el factor {(3b-2a)}, resulta {5=7}, lo que claramente es falso.

   Hay una cierta satisfacción filosófica en saber por qué las cosas funcionan, pero una persona pragmática puede argüir que uno solamente necesita saber cómo funcionan las cosas para resolver problemas de la vida real. La formación matemática que uno recibe en clases introductorias es sin duda el adecuado para que comience solucionando muchos problemas en física, química, biología, economía, ciencias de la computación, finanzas, ingeniería, o cualquier otra actividad que termine haciendo —y que sin duda puede aplicar cosas como la regla de la cadena, la regla de L’Hôspital, o la integración por partes, sin saber porqué funcionan estas reglas, o si existe alguna excepción a dichas reglas. Sin embargo, uno puede meterse en problemas si se aplican las reglas sin conocer de dónde vienen y cuáles son los límites de su aplicabilidad. Déjenme dar algunos ejemplos en los cuales muchas de estas reglas familiares, si son aplicadas a ciegas, sin un conocimiento del análisis subyacente, pueden conducir al desastre.

Ejemplo 1 (División por cero). Esto le debe resultar muy familiar: la ley de cancelación {ac = bc \implies a = b} no funciona cuando {c = 0}. Por ejemplo, la identidad {1 \times 0 = 2 \times 0} es cierta, pero si uno cancela ciegamente el {0}, entonces obtiene {1 = 2}, lo cual es falso. En este caso fue obvio que se dividió por cero; pero otros casos puede estar más oculto.

Ejemplo 2 (Series divergentes). Probablemente ha visto series geométricas como la de la suma infinita

\displaystyle  S = 1 + \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots

Probablemente ha visto el siguiente truco para sumar estar series: si llamamos a la suma anterior {S}, entonces si multiplicamos ambos lados por {2}, obtenemos

\displaystyle  2S = 2 + 1 + \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots = 2 + S

y, por lo tanto, {S = 2}, así la serie suma {2}. Sin embargo, si aplica el mismo truco para la serie

\displaystyle  S = 1 + 2 + 4 + 8 + 16 + \cdots

uno obtiene un resultado sin sentido:

\displaystyle  2S = 2 + 4 + 8 + 16 + \cdots = S - 1 \implies S = -1.

Así, el mismo razonamiento que muestra que {1 + \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots = 2}, también da que {1 + 2 + 4 + 8 + \cdots = -1}. ¿Por qué es cierta la primera ecuación, pero no la segunda? Un ejemplo similar surge con la serie

\displaystyle  S = 1 - 1 + 1 - 1 + 1 - 1 + \cdots;

podemos escribir

\displaystyle  S = 1 + (1 - 1 + 1 - 1 + \cdots) = 1 - S

y, por lo tanto, que {S = 1/2}; o, en su lugar, podemos escribir

\displaystyle  S = (1 - 1) + (1 - 1) + (1 - 1) + \cdots = 0 + 0 + \cdots

y, por lo tanto, que {S = 0}; o, en su lugar, podemos escribir

\displaystyle  S = 1 + (-1 + 1) + (-1 + 1) + \dotsb = 1 + 0 + 0 + \dotsb

y, por lo tanto, que {S = 1}. ¿Cuál es la correcta?

Ejemplo 3 (Secuencias divergentes). Aquí hay una pequeña variación del ejemplo anterior. Sea {x} un número real, y sea {L} el límite

\displaystyle  L = \lim_{n \rightarrow \infty} x^n.

Cambiando las variables {n = m + 1}, tenemos

\displaystyle  L = \lim_{m+1 \rightarrow \infty} x^{m+1} = \lim_{m+1 \rightarrow \infty} x \times x^m = x \lim_{m+1 \rightarrow \infty} x^m.

Pero si {m + 1 \rightarrow \infty}, entonces {m \rightarrow \infty}, por lo tanto

\displaystyle  \lim_{m+1 \rightarrow \infty} x^m = \lim_{m \rightarrow \infty} x^m = = \lim_{n \rightarrow \infty} x^n = L,

y así

\displaystyle  xL = L.

En este punto podríamos cancelar las {L}‘s y concluir que {x = 1} para un número real arbitrario {x}, lo que es absurdo. Pero ya que estamos conscientes del problema de la división por cero, podríamos ser un poco más inteligentes y concluir en su lugar que {x = 1} o { L = 0}. En particular, parece que hemos demostrado que

\displaystyle  \lim_{n \rightarrow \infty} x^n = 0 \text{ para todo } x \ne 1.

Pero esta conclusión es absurda si lo aplicamos a ciertos valores de {x}, por ejemplo, para el caso {x = 2} podríamos concluir que la secuencia {1, 2, 4, 8, \dotso} converge a cero, y para el caso {x = -1} podríamos concluir que la secuencia {1, -1, 1, -1, \dotso} también converge a cero. Estas conclusiones parecen ser absurdas; ¿cuál es el problema con el argumento anterior?

Ejemplo 4 (Valores límite de funciones). Se empieza por la expresión {\lim_{x \rightarrow \infty} \sin(x)}, se hace el cambio de variable {x = y + \pi} y recordando que {\sin(y + \pi) = -\sin(y)} para obtener

\displaystyle  \lim_{x \rightarrow \infty} \sin(x) = \lim_{y+\pi \rightarrow \infty} \sin(y + \pi) = \lim_{y \rightarrow \infty} (-\sin(y)) = -\lim_{y \rightarrow \infty} \sin(y).

Ya que {\lim_{x \rightarrow \infty} \sin(x) = \lim_{y \rightarrow \infty} \sin(y)} tenemos así que

\displaystyle  \lim_{x \rightarrow \infty} \sin(x) = -\lim_{x \rightarrow \infty} \sin(x)

y por lo tanto

\displaystyle  \lim_{x \rightarrow \infty} \sin(x) = 0.

Si hacemos entonces el cambio de variables {x = \pi/2 - z} y recordamos que {\sin(\pi/2 - z) = \cos(z)} concluimos que

\displaystyle  \lim_{x \rightarrow \infty} \cos(x) = 0.

Elevando al cuadrado ambos límites y sumándolos, vemos que

\displaystyle  \lim_{x \rightarrow \infty} (\sin^2(x) + \cos^2(x)) = 0^2 + 0^2 = 0.

Por otro lado, tenemos {\sin^2(x) + \cos^2(x) = 1} para todo {x}. Así, hemos demostrado que ¡{1 = 0}! ¿Cuál es la dificultad aquí?

Ejemplo 5 (Intercambiando sumas). Consideremos el siguiente hecho aritmético. Consideremos cualquier matriz de números, e.g.,

\displaystyle  \left({\begin{array}{ccc} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{array}}\right)

y calculemos la sumas de todas las filas y las sumas de todas las columnas , y entonces el total de las sumas de las filas y el total de las sumas de las columnas. En ambos casos obtendrá el mismo número —la suma total de todas las entradas en las matriz:

\displaystyle  \begin{array}{c@{ }c} \left(\begin{array}{ccc} \phantom{0}1 & \phantom{0}2 & \phantom{0}3 \\ \phantom{0}4 & \phantom{0}5 & \phantom{0}6 \\ \phantom{0}7 & \phantom{0}8 & \phantom{0}9 \end{array}\right) & \begin{array}{l}\phantom{0}6 \\ 15 \\ 24\end{array} \\ \begin{array}{ccc}12 & 15 & 18\end{array} & \begin{array}{l}45\end{array} \end{array}

Para ponerlo de otro modo, si desea sumar todas los elementos en una matriz {m \times n}, no importa si se suma las filas primero o las columnas primero, acabará con la misma respuesta. (Antes de la invención de las computadoras, los contadores usarían este hecho para evitar cometer errores al balancear sus libros.) En notación de serie, este hecho podría ser expresado como

\displaystyle  \sum_{i=1}^m \sum_{j=1}^n a_{ij} = \sum_{j=1}^n \sum_{i=1}^m a_{ij},

si {a_{ij}} denota el elemento de la {i}-ésima fila y {j}-ésima columna de la matriz.

   Ahora, uno puede pensar que esta regla debe extenderse fácilmente para series infinitas:

\displaystyle  \sum_{i=1}^\infty \sum_{j=1}^\infty a_{ij} = \sum_{j=1}^\infty \sum_{i=1}^\infty a_{ij},

En efecto, si usa series infinitas mucho en su trabajo, encontrará que intercambiar las sumas como estas es muy frecuentes. Otra manear de expresar este hecho es que en una matriz infinita, las sumas totales por filas debería ser igual a las sumas totales por columnas. Sin embargo, a pesar de lo razonable de esta afirmación, !es en realidad falsa! Aquí un contra ejemplo:

\displaystyle  \left({\begin{array}{rrrrr} 1 & 0 & 0 & 0 & \dotsb \\ -1 & 1 & 0 & 0 & \dotsb \\ 0 & -1 & 1 & 0 & \dotsb \\ 0 & 0 & -1 & 1 & \dotsb \\ 0 & 0 & 0 & -1 & \dotsb \\ \vdots & \vdots & \vdots & \vdots & \ddots \end{array}}\right)

Si suma todas las filas, y luego suma el total de las filas, obtiene {1}; pero si suma todas las columna, y luego suma el total de las columnas, obtiene ¡{0}! Así, ¿esto significa que las sumas para series infinitas no deben ser intercambiadas, y que se debería desconfiar de cualquier argumento que use un intercambio?

Ejemplo 6 (Intercambiando integrales). El intercambio de integrales es un truco que ocurre en matemáticas tan comúnmente como el intercambio de sumas. Suponiendo que uno quiere calcular el volumen bajo una superficie {x = f(x,y)} (ignoramos los límites de integración por el momento). Uno puede hacerlo mediante el corte paralelo al eje {x}: por cada valor fijo de {y}, se puede calcular el área {\int f(x,y) \,dx}, y entonces integramos el área en la variable {y} para obtener el volumen

\displaystyle  V = \int\int f(x,y) dx dy.

O podría cortar paralelo al eje {y} para cada {x} fijo y calcular el área {\int f(x,y) \,dy}, y entonces integrar en el eje {x} para obtener

\displaystyle  V = \int\int f(x,y) dy dx.

Esto parece sugerir que uno siempre debe ser capaz de intercambiar los signos integrales:

\displaystyle  \int\int f(x,y) dx dy = \int\int f(x,y) dy dx.

Y en efecto, las personas cambian los signos integrales todo el tiempo, porque a veces una variable es más sencilla para integrar primero que la otra. Sin embargo, como en las sumas infinitas a veces no es posibles intercambiarlas, las integrales son también en ocasiones peligrosas para intercambiar. Un ejemplo se da con el integrando {e^{-xy} - xye^{-xy}}. Supongamos que creemos que podemos intercambiar las integrales:

\displaystyle  \int_0^\infty \int_0^1 (e^{-xy} - xye^{-xy}) \, dy \,dx = \int_0^1 \int_0^\infty (e^{-xy} - xye^{-xy}) \, dx \,dy.

Ya que

\displaystyle  \int_0^1 (e^{-xy} - xye^{-xy}) \, dy = ye^{-xy}|_{y=0}^{y=1} = e^{-x},

el lado izquierdo es {\int_0^\infty e^{-x} \, dx = -e^{-x}|_{0}^{\infty} = 1}. Pero, ya que

\displaystyle  \int_0^\infty (e^{-xy} - xye^{-xy}) \, dx = xe^{-xy}|_{x=0}^{x=\infty} = 0,

el lado derecho es {\int_0^1 0 \, dx = 0}. Sin duda, {1 \ne 0}, por lo que existe un error en algún lugar; pero no lo encontrará buscándolo dondequiera, excepto en el paso donde intercambiamos las integrales. Así que ¿cómo sabemos cuándo confiar en el intercambio de integrales?

Ejemplo 7 (Intercambiando límites). Supongamos que empezamos viendo convincentemente la expresión

\displaystyle   \lim_{x \rightarrow 0} \lim_{y \rightarrow 0} \frac{x^2}{x^2 + y^2} = \lim_{y \rightarrow 0} \lim_{x \rightarrow 0} \frac{x^2}{x^2 + y^2} \ \ \ \ \ (1)

Pero tenemos

\displaystyle  \lim_{y \rightarrow 0} \frac{x^2}{x^2 + y^2} = \frac{x^2}{x^2 + 0^2} = 1,

así, el lado izquierdo de (1) es {1}; por otro lado, tenemos

\displaystyle  \lim_{x \ to 0} \frac{x^2}{x^2 + y^2} = \frac{x^2}{x^2 + y^2} = 0,

así, el lado derecho de (1) es {0}. Ya que, evidentemente, {1} no es igual a {0}, esto sugiere que el intercambio de límites es poco fiable. Pero ¿existen otras circunstancias en las que el intercambio de límites es legítimo?

Ejemplo 8 (Intercambiando límites, otra vez). Consideremos ver convincentemente la expresión

\displaystyle  \lim_{x \rightarrow 1^-} \lim_{n \rightarrow \infty} x^n = \lim_{x \ to 1^-} \lim_{n \rightarrow \infty} x^n

donde la notación {x \rightarrow 1^-} significa que {x} se aproxima a {1} desde la izquierda. Cuando {x} es la izquierda de {1}, entonces {\lim_{n \rightarrow \infty} x^n = 0}, y por lo tanto, el lado izquierdo es cero. Pero, también tenemos que {\lim_{x \rightarrow 1^-} x^n = 1} para toda {n}, y por lo tanto, el lado derecho tiene límite {1}. ¿Esto demuestra que este tipo de intercambio de límites es siempre inseguro?

Ejemplo 9 (Intercambiando límites e integrales). Para cualquier número real {y}, tenemos

\displaystyle  \int_{-\infty}^\infty \frac{1}{1 + (x-y)^2} \,dx = \arctan(x - y)|_{x=-\infty}^\infty = \frac{\pi}{2} - \left({-\frac{\pi}{2}}\right) = \pi.

Tomando los límites como {y \rightarrow \infty}, deberíamos obtener

\displaystyle  \int_{-\infty}^\infty \lim_{y \rightarrow \infty} \frac{1}{1 + (x-y)^2} \,dx = \lim_{y \rightarrow \infty} \int_{-\infty}^\infty \frac{1}{1 + (x-y)^2} \,dx = \pi.

Pero, para cada {x}, tenemos {\lim_{y \rightarrow \infty} \frac{1}{1 + (x-y)^2} = 0}. Así, vemos que se ha concluido que {0 = \pi}. ¿Cuál es el con problema con el argumento anterior? ¿Uno debería abandonar la técnica (muy útil) de intercambiar límites e integrales?

Ejemplo 10 (Intercambiando límites y derivadas). Observe que si {\epsilon > 0}, entonces

\displaystyle  \frac{d}{dx} \left({\frac{x^3}{\epsilon^2 + x^2}}\right) = \frac{3x^2(\epsilon^2 + x^2) - 2x^4}{(\epsilon^2 + x^2)^2}

y, en particular, que

\displaystyle  \frac{d}{dx} \left({\frac{x^3}{\epsilon^2 + x^2}}\right)\Big|_{x=0} = 0.

Tomando límites como {\epsilon \rightarrow 0}, entonces uno puede esperar que

\displaystyle  \frac{d}{dx} \left({\frac{x^3}{0 + x^2}}\right)\Big|_{x=0} = 0.

Pero el lado derecho es {\frac{d}{dx} x = 1}. ¿Esto significa que siempre es ilegítimo intercambiar los límites y derivadas?

Ejemplo 11 (Intercambiando derivadas). Sea* {f(x,y)} la función {f(x,y) := \frac{xy^3}{x^2 + y^2}}. Un maniobra común en análisis es intercambiar las dos derivadas parciales; así, uno espera

\displaystyle  \frac{\partial^2 f}{\partial x \partial y} (0,0) = \frac{\partial^2 f}{\partial y \partial x} (0,0).

Pero, por la regla del cociente, tenemos

\displaystyle  \frac{\partial f}{\partial y} (x,y) = \frac{3xy^2}{x^2 + y^2} - \frac{2xy^4}{(x^2 + y^2)^2}

y, en particular

\displaystyle  \frac{\partial f}{\partial y} (x, 0) = \frac{0}{x^2} - \frac{0}{x^4} = 0.

Así

\displaystyle  \frac{\partial^2 f}{\partial x \partial y} (0,0) = 0.

Por otro lado, nuevamente, por la regla del cociente, tenemos

\displaystyle  \frac{\partial f}{\partial x} (x,y) = \frac{y^3}{x^2 + y^2} - \frac{2x^2y^3}{(x^2 + y^2)^2}

y, por lo tanto

\displaystyle  \frac{\partial f}{\partial x} (0,y) = \frac{y^3}{y^2} - \frac{0}{y^4} = y.

Así

\displaystyle  \frac{\partial^2 f}{\partial x \partial y} (0,0) = 1.

Ya que {1 \ne 0}, vemos que el intercambio de derivadas es poco fiable. Pero ¿hay otras circunstancias en las que el intercambio de derivadas es legítimo?

(Uno puede objetar que esta función no está definida en {(x,y) = (0,0)}, pero si establecemos {f(0,0) := (0.0)} entonces esta función se vuelve continua y diferenciable para todo {(x,y)}, y, de hecho, ambas derivadas parciales {\frac{\partial}{\partial x}, \frac{\partial}{\partial y}} ¡son continuas y diferenciables para todo {(x,y)}!)

   Se quiere demostrar por inducción que, para cualquier número natural {n}, existe un número natural {m} con la propiedad

\displaystyle  m^2\le n\le(m+1)^2.

   El caso base de la inducción es sencillo de establecer con {n=m=0}.

   Para el paso inductivo, supongamos que la afirmación es verdadera para {n}. Ahora tenemos que mostrar que es verdadera para {n+1}. Para ello, sea {m} un número natural que cumple la afirmación para {n}. Si tenemos suerte, con {n+1\le(m+1)^2} habremos finalizado. Caso contrario, con {(m+1)^2<n+1}, podemos notar que {n+1\le(m+2)^2}. De manera que en este caso obtenemos {(m+1)^2\le n+1\le(m+2)^2}, como se deseaba.

   Supongamos que {x} e {y} son números irracionales. ¿Son {x+y} y {x-y} también irracionales? ¿Pueden ser racionales?

— 1. Un breve ejemplo —

   La respuesta es que no necesariamente es cierto; por ejemplo, tenemos que {\sqrt2, \sqrt2-1, 1-\sqrt2} son irracionales, pero

\displaystyle  \sqrt2+(1-\sqrt2)=1\in\mathbb Q

y

\displaystyle  \sqrt2-(\sqrt2-1)=1\in\mathbb Q.

— 2. Una proposición fuerte —

   Sin embargo, es importante notar que cuando {x} e {y} son irracionales, {x+y} o {x-y} es irracional inclusive; es decir, no se puede tener a ambos {x+y} y {x-y} irracionales.

Demostración. Si tanto {x+y} como {x-y} son racionales, tenemos que {x+y=p_1/q_1} y {x-y=p_2/q_2}, donde {p_1,p_2\in\mathbf Z} y {q_1,q_2\in\mathbf Z\setminus\{0\}}. Por lo tanto,

\displaystyle  x=\frac{\displaystyle\frac{p_1}{q_1}+\frac{p_2}{q_2}}2=\frac{p_1q_2+p_2q_1}{2q_1q_2}

e

\displaystyle  y=\frac{\displaystyle\frac{p_1}{q_1}-\frac{p_2}{q_2}}2=\frac{p_1q_2-p_2q_1}{2q_1q_2}.

Luego, tenemos que {p_1q_2+p_2q_1, p_1q_2-p_2q_1 \in \mathbf Z}, mientras que {2q_1q_2\in\mathbf Z\setminus\{0\}}, lo que contradice el hecho que {x} e {y} son irracionales. Así, o bien {x+y} es irracional o bien {x-y} es irracional inclusive. \Box

— 3. Proposiciones a saber —

Proposición 1. La suma de dos números racionales es un número racional.

Demostración. Sean {p_1/q_1} y {p_2/q_2} dos números racionales, donde {p_1,p_2\in\mathbf Z} y {q_1,q_2\in\mathbf Z\setminus\{0\}}. Así

\displaystyle  \frac{p_1}{q_1}+\frac{p_2}{q_2}=\frac{p_1q_2+p_2q_1}{2q_1q_2},

donde {p_1q_2+p_2q_1\in\mathbf Z} y {2q_1q_2\in\mathbf Z\setminus\{0\}}. Por lo tanto, la suma también es racional. \Box

Proposición 2. La suma de un número racional y un número irracional siempre es un número irracional.

Demostración. Sea un número racional de la forma {p/q}, donde {p\in\mathbf Z} y {q\in\mathbf Z\setminus\{0\}}, y sea {r} un número irracional. Si {r+p/q} es racional, tenemos que {r+p/q=a/b} para algunos {a\in\mathbf Z} y {b\in\mathbf Z\setminus\{0\}}. Esto quiere decir que

\displaystyle  r=\frac{a}b-\frac{p}q=\frac{aq-bp}{bq},

donde {aq-bp\in\mathbf Z} y {bq\in\mathbf Z\setminus\{0\}}, lo que contradice el hecho que {r} es irracional. Así, nuestro hipótesis inicial que {r+p/q} es un número racional es falsa. Por lo tanto, concluimos que {r+p/q} es un número irracional. \Box

Proposición 3. La suma de dos número irracionales puede ser un número racional o un número irracional.

   Por ejemplo, tenemos que {\sqrt2} es irracional, y {\sqrt2+\sqrt2=2\sqrt2} también es irracional. Mientras que {\sqrt2} y {1-\sqrt2} son irracionales, pero {\sqrt2+(1-\sqrt2)=1} es racional. (Notar que {1-\sqrt2} es irracional por la segunda proposición.)

   Hace poco estuve revisando un pequeño problema en el que se pedía aplicar inducción.

Ejercicio 1. Sea {n} un número natural positivo, {n\ge2}. Entonces

\displaystyle  \sum_{k=1}^n\frac1{k^2}<2-\frac1n.

   Vi lo siguiente en un intento de prueba:

\displaystyle  \sum_{k=1}^k\frac1{k^2}+\frac1{(k+1)^2}<2-\frac1{k+1},

sin saber cómo seguir.

   Para obtener la prueba deseada, supongamos que

\displaystyle  \sum_{k=1}^n\frac1{k^2}<2-\frac1n.

Entonces

\displaystyle \begin{aligned} \sum_{k=1}^{n+1}\frac1{k^2}&=&\sum_{k=1}^n\frac1{k^2}+\frac1{(n+1)^2}\\&=&2-\frac1n+\frac1{(n+1)^2}.\end{aligned}

Así, el problema queda reducido a mostrar que

\displaystyle -\frac1n+\frac1{(n+1)^2}\ge-\frac1{n+1},

lo cual es sencillo de realizar con algo de álgebra. El punto es que uno tiene que usar el supuesto que funciona para {n}. Además, cuando usamos {k} como índice de la suma, no deberíamos usar {k} en cualquier lugar como se hizo anteriormente.

   Ahora veremos una relación interesante aplicando la inducción fuerte. Por ejemplo, tenemos que {36=9\times2^2}, {80=5\times2^4}, {17=17\times2^0}, {64=1\times2^6}, etc.

   Así, nos proponemos probar que todo número natural {n} puede ser escrito como producto de un número impar y un número potencia de dos.

   Para probar algo por inducción fuerte, tenemos que probar que <> es verdadera para todo {N}. De manera que nuestra hipótesis de inducción sería: todo número natural {k} que es estrictamente menor que {n} puede puede ser escrito como un producto de un número impar y una potencia de {2}. Y queremos probar que, desde esta hipótesis, podemos concluir que {n} también puede ser escrito como un producto de un número impar y una potencia de {2}.

   Para ello, tenemos dos casos: o bien {n} es impar, o bien {n} es par. Si podemos probar que el resultado se mantiene para ambos casos, habremos concluido satisfactoriamente.

Caso 1. Supongamos que {n} es impar. Entonces podemos escribir {n=n\times2^0}, con lo que concluimos. Así, en el Caso 1, el resultado se mantiene para {n}.

Caso 2. Ahora supongamos que {n} es par, por lo que {n=2k} para algún número natural {k}. Pero entonces {k<n}; de manera que, podemos aplicar nuestra hipótesis de inducción a {k}. Concluimos que… (Acá el lector ya habrá podido finalizar estar parte.) 🙂

   Por lo tanto, tenemos que el resultado se cumple para todos los números naturales por la inducción fuerte.

   Hace poco consultaban sobre la posibilidad de extender los números complejos de manera que {\mathbf C\subset\mathbf C[a]}, o si {\mathbf C} es la extensión final en el sentido que no si se extiende cualquier cuerpo se termina en {\mathbf C}.

   Pues bien, dado cualquier cuerpo, siempre podemos construir cuerpos más grandes, Si nuestro cuerpo no es algebraicamente cerrado, podemos añadir nuevas raíces de polinomios, también podemos añadir elementos trascendentes (lo que es equivalente a formar un cuerpo de funciones racionales). De hecho, toda extensión de cuerpo es una extensión algebraica de una extensión puramente trascendental. (Como {\mathbf C} es alegóricamente cerrado, no tiene extensiones algebraicas, por lo que no son finitos.)

   En particular, {\mathbf C(T)} (el cuerpo de las funciones racionales en la variable {T} con coeficientes complejos) es más grande que {\mathbf C} en el sentido de la inclusión de la teoría de conjuntos. Sin embargo, la cerradura algebraica tiene la misma cardinalidad que la propia {\mathbf C}, y por consiguiente es abstractamente isomórfica a {\mathbf C}, lo que quiere decir que hay una manera de embeber {\mathbf C(T)} dentro de {\mathbf C}. Si deseamos obtener otro más grande en el sentido de la cardinalidad, podemos formar el cuerpo de las funciones racionales con coeficientes complejos en {\kappa} variables, donde {\kappa} es un número cardinal más grande que el continuo {\mathfrak{c}=|\mathbf{C}|}. Lo que es ciertamente más grande.

   Notemos que no hay ningún subanillo del anillo de polinomios {\mathbf{C}[T]} que es un cuerpo y que estrictamente contiene al propio {\mathbf C}, pero si lo hubiera, podría contener algún {f(T)} no constante, y por lo tanto contiene el elemento no polinomial {f(T)^{-1}}, lo que es imposible dentro de {\mathbf C[T]}.

   También notemos que los cuerpos de diferentes características son incompatibles: los cuerpos de diferentes características nunca pueden estar contenidas dentro de un cuerpo común. De manera que no sólo tenemos el hecho que no hay un cuerpo al final de todos los cuerpos, pero la la clase de todos los cuerpos se adentra en diferentes direcciones mutuamente exclusivas (uno por cada primo y cero).