Destacado: Aventura de Grenoble (2012)

viernes, 31 de agosto de 2012

Crítica de los diferenciales (3)

Dice Euler [Institutiones Calculi Differentialis, 1755, Cap. 3, §83]
Si enim quantitas tam fuerit parva, ut omni quantitate assignabili sit minor, ea certe non poterit non esse nulla; [...] Quaerenti ergo, quid sit quantitas infinite parva in Mathesi, respondemus eam esse revera =0; neque ergo in hac idea tanta Mysteria latent, quanta vulgo putantur et quae pluribus calculum infinite parvorum admodum suspectum reddiderunt.
En efecto, si una cantidad [no negativa] fuese tan pequeña que resultase menor que toda cantidad [positiva] asignable, ella ciertamente no puede ser sino nula; [...] A quien pregunte qué es una cantidad infinitamente pequeña en matemáticas, le respondemos que es, de hecho, cero. Así pues, no hay tantos misterios ocultos en este concepto como se suele creer. Esos supuestos misterios han convertido el cálculo de lo infinitamente pequeño en algo sospechoso para mucha gente.
Así afirma Euler que, si se tiene $0\leq x<\varepsilon$ para todo $\varepsilon>0$, entonces necesariamente $x=0$. Es equivalente al axioma de Arquímedes: dados $a$ y $b$ positivos, exite $n$ natural tal que $b<na$. Ambos enunciados niegan la existencia de infinitesimales, números estrictamente positivos y menores que cualquier número positivo. Tales infinitesimales fueron utilizados en los primeros siglos del Cálculo, aunque con reservas desde que el obispo Berkeley los criticara. Que no se diga que la Iglesia critica la ciencia siempre desde el inmovilismo, porque la crítica del obispo Berkeley provocó en la comunidad matemática (tanto entre los seguidores de Newton como entre los de Leibnitz, pues criticó a ambos) una búsqueda de fundamentos rigurosos para el Cálculo. Así se llegó hasta la formulación ε-δ que conocemos en la actualidad, lo que se llama el Análisis estándar.

Aunque los infinitésimos fueron borrados del mapa matemático en el siglo XIX, resucitaron alrededor de 1970 con formulaciones que llamamos Análisis no estándar. Estas formulaciones dependen de resultados de la Lógica desconocidos antes. Unos introducen lo no estándar desde la propia Teoría de Conjuntos. Otros construyen los números hiperreales $^*\mathbb R$ como una extensión de los reales y reducen la lógica de lo no estándar a los teoremas de transferencia, que permiten traspasar teoremas de $\mathbb R$ a $^*\mathbb R$ y al contrario. Esto me recuerda que Leibnitz dijo sobre los infinitésimos que bastará utilizarlos como herramienta ventajosa para el cálculo, del mismo modo que los algebristas utilizan las raíces imaginarias con provecho. En ambos casos se ha construido una extensión de $\mathbb R$ donde viven los infinitésismos y las raíces imaginarias. Son dos extensiones de $\mathbb R$ en direcciones diferentes, pero creo que se puede construir un plano complejo $^*\mathbb C$ sobre $^*\mathbb R$, aunque el nombre de hipercomplejos ya está pillado por otra teoría.

Hay otras ampliaciones de $\mathbb R$ diferentes de $^*\mathbb R$, sobre las que ya trataré si tengo ganas, pero en ninguna de las que conozco la derivada es un cociente de incrementos infinitesimales. En todos los casos hay que descartar los llamados infinitésimos de orden superior. Por ejemplo, al derivar $x^2$ se encuentran $$\Delta(x^2)=(x+\Delta x)^2-x^2=2x\Delta x+(\Delta x)^2\text,$$ donde descartamos $(\Delta x)^2$ cuando $\Delta x$ es infinitesimal y escriben $\mathrm d(x^2)=2x\mathrm dx+\mathrm dx^2$, donde $\mathrm dx$ es $\Delta x$ restringida a los infinitésimos. Así hacen el cociente $\dfrac{\mathrm d(x^2)}{\mathrm dx}=2x+\mathrm dx$ y descartan $\mathrm dx$ por ser infinitesimal. Por tanto, la derivada no es cociente de infinitésimos, sino que difiere de éste en un infinitésimo. Esta operación puede verse como un paso al límite o como tomar la parte estándar de un número.

martes, 28 de agosto de 2012

Crítica de los diferenciales (2)

En la entrada anterior traté sobre los diferenciales en una variable. Ahora trataré sobre los diferenciales en varias variables. Igualmente, para cada variable independiente $x_i$ creamos una variable independiente $\Delta x_i$ y para cada variable dependiente $y=f(x_1,x_2,\dots,x_n)$ creamos una variable dependiente $$\Delta y=f(x_1+\Delta x_1,x_2+\Delta x_2,\dots,x_n+\Delta x_n)-f(x_1,x_2,\dots,x_n) \text,$$ aunque no lo vayamos a utilizar aquí. Lo que sí nos interesa es el diferencial $\mathrm dy=\sum_{i=1}^n\mathrm D_{x_i}[y]\Delta x_i$, que para la variable independiente $x_i$ queda $\mathrm dx_i=\Delta x_i$, como en el caso anterior. La notación tipo Leibnitz en este caso es $\displaystyle\mathrm dy =\sum_{i=1}^n\frac{\partial y}{\partial x_i}\mathrm dx_i$, donde no ha lugar cancelación entre $\mathrm dx_i$ y $\partial x_i$. Aquí se nota claramente que $\dfrac{\partial\square}{\partial\square}$ es un operador con dos argumentos, y no hay definición de $\partial y$ y $\partial x_i$ por separado. La notación $\dfrac{\partial\square}{\partial\square}$ fue introducida por Legendre [Memoire sur la manière de distinguer les maxima des minima dans le Calcul des Variations, Histoire de l'Academie Royale des Sciences, Année 1786, pp. 7-37, París, 1788] explicando con una nota a pie de la página 8 lo siguiente
Pour éviter toute ambiguité, je répresentarie par $\dfrac{\partial v}{\partial x}$ le coefficient de $x$ dans la différence de $v$, et par $\dfrac{dv}{dx}$ la différence complette de $v$ divisée par $dx$.
Tratándose de un coeficiente, queda claro que $\dfrac{\partial\square}{\partial\square}$ fue un operador con dos argumentos desde el principio.

Además, la derivada parcial $\dfrac{\partial v}{\partial x}$ no depende sólo de $v$ y de $x$, sino que depende de todo el sistema de variables independientes. Por ejemplo, si tenemos las variables independientes $x$ e $y$ y la variable dependiente $v=x-y$, resulta $\dfrac{\partial v}{\partial x}=1$. Si hacemos el cambio de variable poniendo como independiente $y$ y poniendo en su lugar $z=x+y$, resulta $\dfrac{\partial v}{\partial x}=2$. La trampa está en utilizar el mismo nombre para cosas que cambian, siendo al principio $v=\mathrm{vd}(f,x,y)$ con $f(x,y)=x-y$ y después $v=\mathrm{vd}(g,x,z)$ con $g(x,z)=2x-z$. Aquí podemos decir que $v$ ha cambiado, pero en Geometría Diferencial se utiliza también alegremente la notación $\dfrac{\partial\square}{\partial\square}$ operando sobre funciones puras en $\mathcal C^\infty(\mathbb R^2)$ y tenemos el mismo fenómeno, por lo que la notación es ambigua y requiere fijar todo es sistema de coordenadas, no sólo una función respecto a la que se deriva como si fuera una variable independiente.

Concluyendo, la notación $\dfrac{\partial\square}{\partial\square}$ es un operador con dos argumentos que utiliza dos líneas cuando se podría utilizar sólo una y que induce confusión, por lo que debería evitarse.

Crítica de los diferenciales (1)

Como ya comenté en entradas anteriores, la mejor interpretación que se puede dar a la notación de Lebnitz $\dfrac{\mathrm d\square}{\mathrm d\square}$ es un operador con dos argumentos, por lo que no tiene sentido considerar cada $\mathrm d\square$ por separado. Para Leibnitz era un cociente de infinitésimos, pero tales infinitésimos fueron formalizados mucho más tarde (de los que ya hablaré en otra entrada) y ni siquiera allí es un cociente, sino el resultado de una operación hecha sobre el cociente, al igual que la terminología actual, donde la operación es el límite. En ambos casos una fórmula como $\dfrac{\mathrm dz}{\mathrm dx}=\dfrac{\mathrm dz}{\mathrm dy}\dfrac{\mathrm dy}{\mathrm dx}$ sugiere qué manipulación ha de hacer en el cociente que define la derivada, pero hay que descomponer la operación (el límite en nuestro caso) en dos por el producto.

Algunos, para darle valor a $\mathrm d\square$, lo definen de manera que $\mathrm dy =\dfrac{\mathrm dy}{\mathrm dx}\mathrm dx$, pero definiendo primero la derivada y después el diferencial. Con esta terminología es necesario definir los incrementos de la variables. Para cada variable $u$ se introduce su incremento como la variable $\Delta u$. Para una variable independiente $x$, su incremento $\Delta x$ es una nueva variable independiente. Para una variable dependiente $y=f(x)$, su incremento es $\Delta y=f(x+\Delta x)-f(x)$, una nueva variable dependiente. Así la derivada se define como $\dfrac{\mathrm dy}{\mathrm dx}=f'(x)=\lim\limits_{\Delta x\to0}\dfrac{\Delta y}{\Delta x}$. También se define el diferencial como $\mathrm dy =f'(x)\Delta x$. Así el diferencial de la variable independiente es $\mathrm dx=\Delta x$ y se puede escribir para cualquier variable $\mathrm dy =f'(x)\mathrm dx$.

Si $y=f(x)$ y $z=g(y)$, entonces $\mathrm dy=f'(x)\mathrm dx$ y $\mathrm dz=g'(f(x))f'(x)\mathrm dx$, luego $\mathrm dz=g'(y)\mathrm dy$. Vemos, pues, que la fórmula $\mathrm dy=f'(x)\mathrm dx$ es válida tanto si $x$ es dependiente como independiente, de ahí que la regla de la cadena se escriba $\dfrac{\mathrm dz}{\mathrm dx}=\dfrac{\mathrm dz}{\mathrm dy}\dfrac{\mathrm dy}{\mathrm dx}$. Esta notación de la regla de la cadena falla cuando $\mathrm dy=0$, que puede ser para $y$ (localmente) constante ó para $\Delta x=0$. De hecho, para $\Delta x=0$ la notación de Leibnitz falla siempre, y es un caso a considerar.

Aunque estemos trabajando en una variable $x$, hemos tenido que introducir otra variable independiente $\Delta x$. Lo que tenemos es $\mathrm dy=\mathrm D_x[y] \Delta x$. El segundo differencial será $\mathrm d^2 y=\mathrm D_x[\mathrm D_x[y] \Delta x] \Delta x=\mathrm D^2_x[y]\Delta x^2$, entendiendo $\Delta x^2=(\Delta x)^2$, lo que justifica la notación $\dfrac{\mathrm d^2 y}{\mathrm dx^2}$, entendiendo $\mathrm dx^2=(\mathrm dx)^2$, con la salvedad de $\Delta x=0$. En general $\mathrm d^n y=\mathrm D^n_x[y]\Delta x^n$, lo que justifica $\dfrac{\mathrm d^n y}{\mathrm dx^n}$ con la misma salvedad.

domingo, 26 de agosto de 2012

Crítica de las notaciones para las derivadas

En anteriores entradas expuse las distintas notaciones para las derivadas ordinarias y derivadas parciales. Creo que podemos dejar de lado la notación de Newton porque, si la interpretamos como derivada respecto al tiempo, no podemos derivar respecto a $x$ y, si la interpretamos como derivada respecto a una variable implícita, estaríamos en la notación de Lagrange pero peor tipográficamente, porque $\mathop{\dot f}\limits^n$ requiere un doble superíndice por encima del nombre del objeto que derivamos, mientras que la notación de Lagrange $f^{(n)}$ tiene un superíndice al lado del objeto, que ocupa mucho menos y ahora espacio vertical. Además, la notación de Lagrange se utiliza ya para este fin, mientras que la notación de Newton tiene el otro uso ya establecido.

La notación de Lebnitz tiene la única ventaja de que indica claramente respecto a qué variable derivamos, lo cual sólo es importante cuando hay varias variables respecto a las que podemos derivar; esto sólo ocurre en un contexto de varias variables, luego la única notación de Leibnitz útil es $\dfrac{\partial\square}{\partial\square}$, y la notación $\dfrac{\mathrm d\square}{\mathrm d\square}$ sólo tiene inconvenientes. Es más fácil poner $f'$ que $\dfrac{\mathrm{d}f}{\mathrm{d}x}$, y $\dfrac{\mathrm{d}}{\mathrm{d}x}$ como operador no es más que $\mathrm D$ ó, si se quiere remarcar la variable, que $\mathrm D_x$. ¿Para qué emplear dos líneas y potenciar el uso de variables cuando se puede utilizar una sola y potenciar el uso de funciones puras?

Entre la notación de Lagrange y la operacional me quedo con la de Lagrange para funciones puras de expresión breve, es decir, que no haga falta encerrar la función a derivar entre paréntesis. La notación operacional la prefiero para variables dependientes, pues permite explicitar la variable independiente, y cuando la expresión a derivar es compleja, ya que se puede encerrar entre corchetes. Esto en una variable; pasaremos ahora a varias variables.

En varias variables la notación de Lagrange sólo se puede utilizar donde esté garantiza la validez del teorema de Schwarz, y la pseudolagrangiana tiene muchas variantes y resulta confusa. La notación tiene la ventaja de que puede utilizar tres variantes sin lugar a confusión. Para utilizar la notación tipo Leibnitz $\dfrac{\partial\square}{\partial x}$, prefiero utilizar la operacional $\partial_x$, que utiliza la mitad de espacio vertical.

Además, la notación de Leibnitz hace pensar en un cociente y en un denominador conmutativo, cuando ni es cociente (de lo que ya hablaré en otra entrada) ni el denominador es un producto conmutativo.

Notaciones de las derivadas parciales

En la entrada anterior discutí las notaciones de la derivada ordinaria. Ahora voy a tratar sobre las notaciones de las derivadas parciales. Para empezar, las notaciones de Lagrange y de Newton sólo son válidas para una variable, aunque la notación de Newton se puede interpretar como deriva parcial respecto al tiempo. Sí hay notaciones operacionales y notación tipo Leibnitz. Hay una notación usual similar a la de Lagrange que necesita que la variables invariantes esté bautizadas. Así, si $z=f(x,y)$, se pueden denotar las derivadas parciales como $z_x=f_x(x,y)$ y $z_y=f_y(x,y)$. Nótese que utilizamos en nombre de las variables independientes, no su valor; así $z_x|_{x=a}=f_x(a,y)$. Otros utilizan las primas de Lagrange en tándem con el subíndice que indica respecto a qué variable estamos derivando, por ejemplo $z^\prime_x=f^\prime_x(x,y)$.

La notación operacional tiene versiones tanto para funciones puras como para funciones con variables bautizadas. Así $\mathrm D_1$ es la derivada respecto a la primera variable, $\mathrm D_2$ respecto a la segunda, etcétera. Para una variable bautizada $x$ se utiliza el operador $\mathrm D_x$. En lugar de la D se puede utilizar ∂ para denotar que las derivadas son parciales. En la notación de Leibnitz substituye el símbolo $\mathrm d$ por $\partial$. Así se escribe $\dfrac{\partial z}{\partial x}=\dfrac{\partial f}{\partial x}(x,y)$ y $\dfrac{\partial z}{\partial y}=\dfrac{\partial f}{\partial y}(x,y)$. Personalmente yo prefiero $\mathrm D_1$ ó $\partial_1$ aplicada a funciones puras. Ocupa menos y puede utilizarse tanto para funciones puras como para variables.

Ahora trataré sobre la derivadas parciales de orden superior. Hay notaciones que indican el orden de derivación, como $f_{xy}$, $f^{\prime\prime}_{xy}$, $\mathrm D_{xy}$ y $\dfrac{\partial^2 f}{\partial x\partial y}$. Normalmente se aplica el teorema de Schwarz y el orden de derivación no importa, pudiéndose utilizar la notación de multiíndices como $f^{(1,1)}$ y $\mathrm D^{(1,1)}f$. Nótese que la primera de ellas extiende la notación de Lagrange a varias variables. Es una pena que las notaciones para variables anónimas dependan del teorema Schwarz y no sean válidas en general.

Cuestiones de ortotipografía matemática

Al escribir la entrada anterior las notaciones de la derivada ordinaria me surgió un problema. Hace tiempo que llevo escribiendo los números $\mathrm e$, $\mathrm i$ y π sin cursiva, del mismo modo que escribimos las cifras sin cursiva, por cuestiones de ortotipografía matemática. Del mismo modo escribo $\mathrm d$ en la notación de Leibnitz, que es un símbolo en tándem con otro $\mathrm d$ en una falsa fracción o con un signo integral $\int$. Ya discutiré en otra entrada el posible significado de $\mathrm{d}x$ por sí solo. Por coherencia utilicé para una $\mathrm D$ sin cursiva para el operador de derivación. En su uso original [Arbogast, De Calcul des Dérivations, 1800], el operador de derivación iba sin cursiva y en versalita; así escribe $\mathrm{\scriptsize D}F$ y $\mathrm{\scriptsize D}\varphi$. Así Arbogast puede utilizar tanto $d$ y $D$ como coeficientes sin confusión con los operadores diferenciales. El problema surge cuando el $\mathrm\LaTeX$ básico de MathJax no tiene más que una $\pi$ en cursiva y una $\partial$ que no se vé claramente si es cursiva o no. Si nos atenemos a Arbogast, $\partial$ sí es cursiva. Para escribir en HTML puedo utilizar π y ∂, pero no en las fórmulas en $\mathrm\LaTeX$. Aquí me surge la duda: ¿debo seguir utilizando las notaciones sin cursiva allí donde pueda o, ya que no puedo hacer consistentemente en todos los casos, ponerlos todos en cursiva por coherencia?

sábado, 25 de agosto de 2012

Notaciones de la derivada ordinaria

Toda esta serie ¿Qué es una variable en matemáticas? [1, 2, 3, 4] está inspirada por lo que voy a escribir a continuación, una discusión sobre las distintas notaciones de la derivada. Empezaré con mis favoritas: la de Lagrange y la operacional. Ambas se aplican a funciones puras, aunque se pueden aplicar también a funciones con variables bautizadas y, con un ligero abuso, a variables dependientes. Con la notación de Lagrange, la derivada de $f$ es $f'$ y, si la función tenía bautizada la variable, lo hereda la derivada. Para aplicar la notación de Lagrange a una variable dependiente tiene que estar implícita y fijada la variable independiente. Si la variable independiente es $x$ e $y=f(x)$, entonces $y'=f(x)$. Desde luego yo prefiero $f'(x)$ a $y'$, pero también se utiliza $y'$ y también he visto cosas como $(x^2+1)'=2x$. Así pues, es preferible poner $f'(x)$ que $f(x)'$, porque la primera es la derivada de una función (evaluada en $x$ o recordando que su variable es $x$, según el contexto) y la segunda es la derivada de una variable dependiente. Además, si $y$ es una variable dependiente, no es igual $f'(y)$ que $f(y)'$. De hecho, la regla de la cadena se puede enunciar como $f(y)'=f'(y)\cdot y'$, aunque yo prefiero enunciarla para funciones puras como $(f\circ g)'=(f'\circ g)\cdot g'$.

La notación operacional es atribuida por muchos a Euler, pero según Cajori [A History of Matematical Notations, vol II, §577] esta notación la introdujo con su significado actual Arbogast [De Calcul des Dérivations, 1800]. En notación, la derivada de $f$ es $\mathrm{D}f$. Si se quiere delimitar dónde actúa, se puede poner $D[f]$; por ejemplo, la regla de Leibnitz quedaría como $ \mathrm{D}[f\cdot g]= \mathrm{D}[f]\cdot g+f\cdot\mathrm{D}[g]$. Al igual que con la notación de Lagrange, para aplicarla a una variable dependiente, tiene que estar implícita y fijada la variable independiente. Si la variable independiente es $x$ e $y=f(x)$, entonces $\mathrm{D}[y]=\mathrm{D}[f](x)$. Así, por ejemplo, se puede ver $\mathrm{D}[x^2+1]=2x$. Además de ser válidas para esta notación las observaciones que hice para la de Lagrange, se tiene la ambigüedad en la expresión $\mathrm{D}f(x)$. ¿Qué significa, $\mathrm{D}[f](x)$ o $\mathrm{D}[f(x)]$? Desde luego yo prefiero la primera interpretación, pero se presta a confusión e incluso, si $x$ es una variable dependiente, pueden tener diferente valor.

Después de introducir mis notaciones preferidas, introduciré las de los padres del Cálculo: Newton y Leibnitz. Con la notación de Newton, la fluxión de $x$ es $\dot x$. En principio, esta notación se podría emplear para cualquier función de cualquier variable, pero en la práctica se ha especializado para variables dependientes del tiempo. Esto significa que la variable independiente implícita es $t$, pero hay usos en Relatividad donde $t$ es una variable espacio-temporal más y la notación de Newton indica derivación con respecto a $\tau$, el tiempo propio. Cajori [A History of Matematical Notations, vol II, §567] indica que, para derivadas respecto a otras variables, Newton utilizaba $\dot y:\dot x$ pero, como ha caído en desuso, no voy a comentarlo. Otra desventaja de esta notación es aplicarla a una expresión compuesta. Newton recurría a barras como $\overline{x+y}$ para agrupar, pero era también la forma mcomún de agrupar antes de que se impusieran los paréntesis. Con paréntesis quedaría como $(x+y)^{\textstyle\cdot}=\dot x+\dot y$.

Finalmente introduzco la notación de Leibnitz, que es la que menos me gusta. En principio se utiliza para variables dependientes. La derivada de $y$ con respecto a $x$ se denota $\dfrac{\mathrm{d}y}{\mathrm{d}x}$. Para funciones, se puede convertir en la derivada de una variable dependiente como $\dfrac{\mathrm{d}f(x)}{\mathrm{d}x}$ ó definir $\dfrac{\mathrm{d}f}{\mathrm{d}x}=f'$. Tiene la desventaja de tener que bautizar a la variable de una función pura, aparte de que el operador tiene altura doble y ocupa mucho más espacio que $\mathrm{D}$ ó que la notación de Lagrange. Pero lo peor de todo es que, aunque es operador $\dfrac{\mathrm{d}\square}{\mathrm{d}\square}$ con dos argumentos, tiene apariencia de cociente e induce a pensar en cancelaciones prohibidas. Ya hablaré en otra entrada sobre las desventajas de esta notación.

Para terminar compararé las diferentes notaciones de las derivadas de orden superior. En la notación de Lagrange se suele utilizar $f',f'',f''',f^\mathrm{IV}$ continuando con números romanos, como para las fracciones sexagesimales, o de la forma $f^{(n)}$. En la notación operacional, evidentemente, se utiliza $\mathrm D^n$. Ambas notaciones admiten la notación $f^{(-1)}$ y $\mathrm D^{-1}$ para la antiderivada o primitiva. La notación de Newton continúa añadiendo puntos encima de la forma $\dot x,\ddot x, \dot{\ddot x},\ddot{\ddot x}$ ó, según Cajori [A History of Matematical Notations, vol II, §579], de la forma $\mathop{\dot x}\limits^n$. La antiderivada (fluente para Newton) se denota $\mathop{x}\limits^{\scriptscriptstyle|}$ según Cajori [§567]. En la notación de Leibnitz se suele escribir $\dfrac{\mathrm{d}^ny}{\mathrm{d}x^n}$, que no hace más que crear confusión. La antiderivada es todavía más complicada: la inversa de $\dfrac{\mathrm{d}}{\mathrm{d}x}$ es $\int\square\mathrm{d}x$.

viernes, 24 de agosto de 2012

¿Qué es una variable en matemáticas? (4)

En la entrada anterior propuse una formalización de variables dependientes e independientes, y llegué a la conclusión de que la regla de la cadena $$\frac{\mathrm{d}z}{\mathrm{d}x}= \frac{\mathrm{d}z}{\mathrm{d}y}\frac{\mathrm{d}y}{\mathrm{d}x}$$ para $y=f(x)$ y $z=g(y)$ no es válida porque $y$ es una variable dependiente y no se puede derivar respecto a ella. Maple sigue el mismo criterio y da un error si se quiere calcular diff(z,y), pero calcula perfectamente diff(z,x). La forma correcta sería $y=f(x)$, $v=g(u)$, $z=v|_{u=y}=g(y)$ y $$\frac{\mathrm{d}z}{\mathrm{d}x}= \left.\frac{\mathrm{d}v}{\mathrm{d}u}\right|_{u=y} \frac{\mathrm{d}y}{\mathrm{d}x}\text,$$ que ya no es simplificar un cociente.

Como se puede notar en el párrafo anterior, utilizo $y|_{x=a}=f(a)$ para $y=f(x)$, y creo que, ya que la composición se indica de distinta manera, la evaluación se indique de distinta manera. Maple distingue claramente las variables dependientes de las funciones, evaluándose las primeras eval(y,x=a) y las segundas f(a). Aunque se podría confundir, por abuso de notación, una variable dependiente con la función que la define, creo que es mejor distinguirla, e interpretar enunciados como $f=f(x)$ como una denominación de las variable de la función. Es cierto que la estructura subyacente para una función con variables bautizadas es la misma que la de una variable dependiente, pero $y\neq f$ porque $f=\mathrm{func}(f,x)$ (con abuso de notación llamando $f$ tanto a la función de variables bautizadas como a la función de variables anónimas). Su comportamiento es diferente ante composiciones, evaluaciones y substituciones.

Esto es sólo una propuesta de como formalizar el uso de variables dependientes e independientes de manera que los usos comunes de éstas sean mínimos abusos de notación. Me gustaría recibir críticas.

¿Qué es una variable en matemáticas? (3)

A diferencia de los polinomios, sobre los que trataba la primera parte de esta serie, la funciones no tienen una función destacada a la que podemos denominar $x$ y llamarla variable. Lo más parecido es la identidad, pero la identidad es otra función con la que se compone, no un punto del dominio donde se aplica. Lo correcto sería $f\circ\mathrm{id}$, no $f(\mathrm{id})$. No tenemos una notación, como con los polinomios, donde un nombre no asignado, como $x$, pase a estar asignado a ese anillo de funciones, o a su dominio, o al anillo y a un índice en el caso de varias variables. Por ejemplo, podríamos escribir $\mathcal C(x\in U)$ ó $\mathcal C(x: U)$ en lugar de $\mathcal C(U)$ para indicar que $x$ es la variable asignada a ese anillo. Así podríamos decir indistintamente $f$ ó $f(x)$ con la misma libertad con que lo decimos con los polinomios. Esto se extiende fácilmente a varias variables como $\mathcal C((x,y)\in V)$ ó $\mathcal C(x,y: V)$. Así tendría sentido derivar respecto a $x$ o respecto a $y$.

Ya hemos visto las variables independientes, pero ¿qué son matemáticamente las variables dependientes? Utilizando la anterior formalización de las variables independientes, una variable dependiente podría ser una función junto con nombres de variables independientes para sus argumentos, y se podría aceptar fórmulas del tipo $y=f(x)$ por $y=\mathrm{vd}(f,x)$, incluso si en el anillo al que pertenece $f$ no hemos definido una variable independiente. Podemos entender toda variable independiente también como variable dependiente con la igualdad $x=x$ que quiere decir $x=\mathrm{vd}(\mathrm{id},x)$. Las variables dependientes se pueden sumar, multiplicar y se puede aplicarles funciones, por ejemplo, $z=g(y)$ por $z=\mathrm{vd}(g\circ f,x)$, siendo $y=\mathrm{vd}(f,x)$. Lo que conviene señalar es que, si queremos derivar respecto de variables, éstas han de ser variables independientes. Si ya tenemos $y=\mathrm{vd}(f,x)$, no se puede pretender que $z=g(y)$ sea $z=\mathrm{vd}(g,y)$. Ésta es una de las razones por la que la regla de la cadena no es una cancelación de diferenciales. (La otra razón es que una derivada no es cociente de diferenciales.) Por ejemplo, no se puede poner $$\frac{\mathrm{d}z}{\mathrm{d}x} =\frac{\mathrm{d}z}{\mathrm{d}y}\frac{\mathrm{d}y}{\mathrm{d}x}$$ porque $y$ no es una variable independiente respecto de la cual se pueda derivar. Se puede poner $$\frac{\mathrm{d}z}{\mathrm{d}x}=g'(y)\frac{\mathrm{d}y}{\mathrm{d}x}\text.$$

jueves, 23 de agosto de 2012

¿Qué es una variable en matemáticas? (2)

En la primera parte de esta serie traté sobre qué es un variable cuando hablamos de polinomios. Lo que dije allí es válido para series de potencias. Por ejemplo, las series formales sobre un anillo $A$ (las sucesiones cualesquiera con el producto de Cauchy) se denotan $A[[x]]$ queriendo decir "el anillo de series formales en $A$ donde llamamos $x$ a la serie destacada". También vale para series en varias variables y para series convergentes. El problema con estas últimas es que se pueden confundir con la función analítica que definen. Entre los polinomios no hay tal confusión, porque si están evaluados en la variable $x$ es una forma redundante de expresar la variable del polinomio, pero también coincide con la substitución de $x$ por ella misma. Lo mismo ocurre con las series formales, pero las series convergentes sólo se pueden evaluarse dentro de su radio de convergencia, que puede ser menor que el dominio de la función analítica que induce. Por ejemplo, la serie de potencias $1-x^2+x^4-x^6+\cdots$ define la función racional $\dfrac1{x^2+1}$, que es analítica en todo $\mathbb R$, pero el radio de convergencia de la serie es $1$, por lo que sólo define una función en $(-1,1)$. El resto es prolongación analítica. Para polinomios y series de potencias tiene sentido derivar respecto a $x$ porque, como dije en la entrada anterior, es más que un elemento destacado del anillo; es un símbolo asociado al anillo y, en el caso de varias variables, a un índice.

Otro tipo de variables son las variables mudas, por ejemplo, $i$ en $\sum\limits_{i=0}^n a_i$ y $x$ en $\int f(x)\mathrm{d}x$ y en $\lim\limits_{x\to\infty}f(x)$. Ambas varían en un dominio definido, discreto o continuo, y se pueden sustituir en todas sus apariciones por otro símbolo no usado, por ejemplo, $\sum\limits_{i=0}^n a_i=\sum\limits_{j=0}^n a_j$, $\int f(x)\mathrm{d}x=\int f(t)\mathrm{d}t$ y $\lim\limits_{x\to\infty}f(x)=\lim\limits_{t\to\infty}f(t)$. Las variable mudas son locales, por lo que pueden utilizarse varias veces para distinto fin sin contradicción. También es variable muda la $x$ en $x\mapsto x^2$. Me entretengo con las variables mudas porque muchas veces lo que se está utilizando informalmente es una variable muda, por ejemplo, cuando se dice "sea la función $f(x)=x^2$" lo que se quiere decir es "sea la función $f$ dada por $f(x)=x^2$ para todo $x\in\mathbb R$" ó "sea $f: x\mapsto x^2$".

La próxima entrada tratará sobre las variables dependientes e independiente.

¿Qué es una variable en matemáticas? (1)

Pensando en las diferentes notaciones para la derivación me he llegado a preguntar qué son las variables en matemáticas. Cuando decimos $y=f(x)$, ¿qué es $x$ y qué es $y$? ¿Por qué se dice análisis en una o varias variable si se trata con funciones? Creo que la discusión va a dar para una serie de entradas.

Recuerdo de mis primeras clases en la carrera de matemáticas que nos construyeron formalmente el anillo de polinomios en un anillo $A$. Primero definimos el conjunto de los polinomios como las sucesiones en $A$ (las aplicaciones $\mathbb{N}\to A$) con con una cantidad finita de términos no nulos. Con la suma términos a término y el producto de Cauchy, queda construido un anillo isomorfo a los polinomios en una variable que conocemos usualmente, pero sin variable. La notación más natural para tal anillo sería $\mathrm{Pol}(A)$ en lugar de $A[x]$. Además, ¿qué es $x$? Si definimos $x=(0,1,0,\dots,0,\dots)$, podemos expresar los polinomios como $(a_0,a_1,\dots,a_n,0,\dots,0,\dots)=a_0+a_1 x+\dots+a_n x^n$, a la manera usual. Así es que $x$ no es sino un polinomio destacado, cuya función polinómica asociada es la identidad. Al decir "$A[x]$" estamos queriendo decir "$\mathrm{Pol}(A)$ donde llamamos $x$ al polinomio destacado". Esto si $x$ era un nombre sin asignar, porque si $x$ fuese un elemento de una extensión $B$ de $A$, $A[x]$ sería el menor subanillo de $B$ que contiene a $A$ y a $x$.

Para los polinomios en varias variables se generalizaría fácilmente. Podríamos definir $\mathrm{Pol}_n(A)$ como el anillo de la aplicaciones $\mathbb{N}^n\to A$ con la suma y el producto adecuados para conseguir una anillo isomorfo a los polinimios usuales y construir los poliniomios destacados $x_1,x_2,\dots,x_n$, a los que podemos llamar variables. Así, al decir "$A[x,y]$" estamos queriendo decir "$\mathrm{Pol}_2(A)$ donde llamamos $x$ al primer polinomio destacado e $y$ al segundo". Creo que esta construcción es más manejable que la construcción iterada $A[x,y]=A[x][y]$ que dimos en aquel curso.

De todas maneras, creo que no basta con definir como variable un polinomio destacado, sino que también necesitamos que el nombre esté asignado al anillo, con un índice en el caso de varias variables, de manera que se pueda definir la derivación respecto a una variable. Así pues una variable es más que un polinomio destacado.

miércoles, 22 de agosto de 2012

LaTeX en Blogspot (3)

Otra forma de poner fórmulas en Blogspot, sin scripts es mediante el siguente código:
<img src="http://chart.googleapis.com/chart?cht=tx&chl=código LaTeX" />
Por ejemplo, el siguiente código
<img src="http://chart.googleapis.com/chart?cht=tx&chl=\frac{1\pm\sqrt5}{2}"/>
produce . Tiene las mismas desventajas que en la primera entrega LaTeX en Blogspot, más la desventaja de tener que añadir HTML a pelo, pero tiene la ventaja de que se puede añadir texto alternativo para mostrar si no se pude cargar la imagen de la fórmula.

martes, 21 de agosto de 2012

LaTeX en Blogspot (2)

Dejando un poco de lado y mis aventuras en Grenoble, voy a tratar aquí sobre otras soluciones para LaTeX en Blogspot, ya que el truco que di en LaTeX en Blogspot ha dejado de funcionar en el nuevo diseño de Blogger. El truco es insertar el siguiente script:
<script src="http://cdn.mathjax.org/mathjax/latest/MathJax.js" type="text/javascript"> MathJax.Hub.Config({
extensions: ["tex2jax.js","TeX/AMSmath.js","TeX/AMSsymbols.js"],
jax: ["input/TeX", "output/HTML-CSS"],
tex2jax: {
inlineMath: [ ['$','$'], ["\\(","\\)"] ],
displayMath: [ ['$$','$$'], ["\\[","\\]"] ],
},
"HTML-CSS": { availableFonts: ["TeX"] }
});
</script>
Así puedo escribir tanto en línea $\mathbb{R}^2$ como centrado $$\frac{-b\pm\sqrt{b^2-4ac}}{2a}\text.$$ Tiene la desventaja, al igual que el antrior truco, que dependes de un servicio externo, pero me convence más. A ver si lo uso.

jueves, 9 de agosto de 2012

El póster llega a casa

Como ya conté en Jueves: los preparativos, me envié por correo a casa el póster en un tubo rígido de cartón. Pues me ha llegado hoy por correo. También me envié por correo parte del equipaje desde Groningen, pero aquella vez la parte española se la encargaron a MRW. La tardanza de aquella vez es atribuible al temporal de nieve, pero la de esta vez no sé a qué es. Más aún, como se ve en esta foto, lo mandaron antes de ayer en avión desde Roissy (aeropuerto CDG) a Madrid, luego la parte española fue relativamente rápida. ¿Estuvo todo este tiempo esperando en París hasta que juntar un envío?
Por cierto, el código UX1028 corresponde a un vuelo de Air Europa. Otra cosa que sucedió con el franqueo y se me olvidó poner en aquella entrada es que el sello de la máquina salió cortado. Yo se lo di a la señora de La Poste y ella pegó las dos partes juntas y escribió Bien Affranchi (bien franqueado) y la cantidad. Al ver ahora el paquete observo que pone prioritario, cuando yo le dije a la señora que lo quería no prioritario. Seguramente me entendió mal. Pero, si esto es prioritario, ¿cuánto habría tardado si me lo ponen no prioritario como pedí? ¿Lo habrían dejado almacenado todo el verano? Además, aunque me saliera un poco más caro, me salió mucho más barato que llevarlo en mi vuelo, con la comodidad de no tener que llevarlo a rastras todo el viaje. Incluso me salió mucho más barato que la tarifa que indica Correos en su página para el trayecto inverso.