Explorando el Poder de las Simetrías

Las ecuaciones diferenciales son una maravilla. Describen las interacciones de cuerpos físicos, la trayectoria de los flujos, y modelan los mercados financieros. Las ecuaciones lineales y cuadráticas de la escuela, son triviales comparadas con estas bestias. Tristemente, la mayoría de ecuaciones en derivadas no tienen solución que se exprese en términos de funciones elementales, ¡y aun las ecuaciones que las tienen no siempre son fáciles de resolver! Sin embargo, hay maneras elegantes de afrontar varias clases, y es muy probable que conozcas algunas de ellas. Si has visto algunos métodos para solucionarlas, te habrás dado cuenta de que cada uno es distinto, y muy pocas veces se adapta a otra clase de ecuación. Hoy te espero asombrar con uno de mis métodos preferidos, que logra combinar la teoría de simetrías y grupos con el campo de ecuaciones diferenciales. Empecemos con lo que son las simetrías.

Todo lo que sigue a continuación se basa en el trabajo por Hydon [^1] y las explicaciones se han desarrollado con ayuda de Auman [^2]. No obstante, aunque las ideas son de Hydon, el texto es trabajo propio.

1. Las simetrías

Una simetría es una función que podemos aplicar a un objeto sin alterarlo. Por ejemplo, tomemos como objeto un cuadrado, y apliquemos la función de la rotación de π2\frac{\pi}{2} radianes en torno a su centro que llamaremos RR.

Nos percatamos de que el objeto se ve igual tras su rotación. Para ser más rigurosos, definimos el cuadrado C\mathcal{C} como un conjunto de puntos en el plano euclídeo

C:={(x,y)R2x=1y=1}\mathcal{C} := \{(x,y) \in \R^2\mid |x| =1 \lor |y|=1\}

Ahora, definimos la aplicación de la rotación RR a un conjunto UU como
R(U)={R(u)uU}.R(U) = \{R(u)\mid \forall u\in U\}.

Si haces las cuentas, verás que
R(C)=CR(\mathcal{C}) = \mathcal{C}

y que por ende, el cuadrado es invariante bajo esta simetría.

Hay otras simetrías de C\mathcal{C} como reflexiones. Todas las simetrías de un objeto forman un conjunto al que llamamos grupo. Cada función en el grupo se puede invertir, y las funciones se pueden componer entre sí. Incluso podríamos definir un grupo de todas las simetrías del cuadro, C\mathcal{C}. Este grupo es bien conocido y se llama D4\mathcal{D}_4, el grupo diédrico de orden 8.

Ahora bien, si conoces algo de la teoría de grupos, puede que te preguntes cuál será el objeto al que aplicamos las simetrías en el caso de las ecuaciones en derivadas. ¿El dominio de las soluciones? ¿La ecuación misma? En realidad, trabajaremos sobre el conjunto de las soluciones de una ecuación diferencial, y buscaremos las simetrías que dejan al conjunto de soluciones invariante. Más específicamente, buscaremos un grupo cuyas simetrías (las cuales son funciones) se puedan parametrizar por un único valor. Demos un ejemplo de tal grupo.

Sea GG el grupo de matrices de rotación en R2\R^2. Probablemente hayas visto que si RθR_\theta es la rotación antihoraria canónica de θ\theta radianes, entonces

Rθ=[cosθsinθsinθcosθ].R_\theta = \begin{bmatrix} \cos\theta&-\sin\theta \\ \sin\theta &\cos\theta \end{bmatrix}.

Deducimos que

G={Rθθ[π,π)}.G = \{R_\theta\mid \theta\in [-\pi,\pi)\}.

Hemos parametrizado el grupo GG por un valor, θ\theta. De la misma forma, nuestro grupo para la ecuación contendrá simetrías Γε\Gamma_\varepsilon parametrizadas por εR\varepsilon \in \R. Ahora, aplicada a cualquier punto (x,y)(x,y) de un dominio regular DD,la simetría se define como
Γε:(x,y)(x^ε(x,y),y^ε(x,y)).\Gamma_\varepsilon: (x,y) \mapsto (\hat{x}_\varepsilon(x,y), \hat{y}_\varepsilon(x,y)).

Un grupo es un grupo local de Lie de un parámetro si

  1. Contiene la simetría trivial Γ0\Gamma_0 tal que Γ0(x,y)=(x,y),(x,y)D\Gamma_0(x,y) = (x,y), \forall (x,y) \in D.
  2. Γε\Gamma_\varepsilon es una simetría para ε\varepsilon en un entorno de 00.
  3. Para ε,δ\varepsilon, \delta suficientemente cerca a 0, ΓδΓε=Γδ+ε\Gamma_\delta \circ \Gamma_\varepsilon = \Gamma_{\delta+\varepsilon}.
  4. x^,y^\hat{x}, \hat{y} poseen series de Taylor centradas en un entorno de ε=0\varepsilon = 0.

Hay algunas razones por las que hemos decidido buscar un grupo de Lie, pero la que es más importante saber por ahora es la siguiente: las simetrías de Lie son difeomorfismos. Es decir, son continuas y diferenciables. Sea ϕ\phi una simetría e y=f(x)y=f(x) una solución para una ecuación diferencial. Nuestra meta es que la imagen de ff bajo la simetría sea también una solución de la ecuación. Queremos que

y^=ϕf(x)=f(x^)\hat{y} = \phi\circ f(x) = f(\hat{x})

y luego
y=f^y= \hat f

sea una solución. Para ello, precisamos que f^\hat{f} sea diferenciable. De otro modo, ¿cómo puede ser solución de una ecuación diferencial? Si ϕ\phi es un difeomorfismo, entonces tiene una primera derivada, y por tanto, por la regla de la cadena, ϕf\phi\circ f la tiene también. Luego, que la simetría sea un difeomorfismo basta para asegurarnos de que la imagen de una solución sea diferenciable. Encima, más adelante nos valdremos de algunos cambios de coordenadas, y la existencia de una primera derivada no nula nos garantiza la invertibilidad de dichas transformaciones.

2. Resolver la ecuación

Hay varias clasificaciones de ecuaciones diferenciales, y cada clase es más afín a ciertos métodos. Nos enfocamos de aquí en adelante en las ecuaciones de la forma

dydx=ω(x,y)\frac{dy}{dx} = \omega(x,y)

donde (x,y)DR2(x,y)\in D\subseteq \R^2. El conjunto DD es el dominio de la función. La función ω\omega cumple que sus derivadas parciales de primer orden existen, y es una función

ω:DR\omega: D \to \mathbb R

con

(x,y)ω(x,y).(x,y) \mapsto \omega(x,y).

Es importante destacar que no podemos tomar una ecuación cualquiera de esta forma y suponer que el siguiente método funcionará, y que haya ciertas condiciones iniciales por satisfacer. Estas se darán después de ver el método, ya que entonces parecerán muy sensatas.

2.1. Condición de simetría linealizada

Sea

Dx=x+dydxyD_x = \frac{\partial}{\partial x} +\frac{dy}{dx}\frac{\partial}{\partial y}

el operador de la derivada total. Si no conocéis este operador, basta considerarlo como ddx\frac{d}{dx} para una función multivariable. Por ejemplo, ω(x,y)\omega(x,y) varía dependiendo del valor de xx pero también del valor de yy, y es posible que xx influya en yy. Quizá y=f(x)y = f(x) por ejemplo. El operador DxD_x toma en cuenta esta posible dependencia mientras que ddx\frac{d}{dx} no.

Nosotros buscamos las simetrías Γε\Gamma_\varepsilon tales que

Γε:DD\Gamma_\varepsilon: D \to D

con
(x,y)(x^(x,y;ε),y^(x,y;ε))(x,y) \mapsto ( \hat x (x,y;\varepsilon), \hat y (x,y;\varepsilon))

y si y=f(x)y=f(x) es solución de nuestra ecuación, también lo es y^=f(x^)\hat{y} = f(\hat{x}).

Por la regla de la cadena

ω(x^,y^)=dy^dx^=dy^dxdx^dx=Dxy^Dxx^=y^x+ω(x,y)y^yx^x+ω(x,y)x^y.\omega({\hat{x},\hat{y}})=\frac{d\hat{y}}{d\hat{x}}= \frac{\frac{d\hat{y}}{dx}}{\frac{d\hat{x}}{dx}} = \frac{D_x\hat{y}}{D_x\hat{x}}= \frac{\hat{y}_x+\omega(x,y)\hat{y}_y}{\hat{x}_x+\omega(x,y)\hat{x}_y} .

Deducimos la igualdad
y^x+ω(x,y)y^yx^x+ω(x,y)x^y=ω(x^,y^)\frac{\hat{y}_x+\omega(x,y)\hat{y}_y}{\hat{x}_x+\omega(x,y)\hat{x}_y} = \omega({\hat{x},\hat{y}})

a la que llamamos la condición de simetría. Sin embargo, por lo general, será muy difícil sacar expresiones explícitas de x^\hat{x} e y^\hat{y} como funciones de xx e yy. Nosotros derivamos una condición lineal, aprovechándonos de que nuestra simetría es un difeomorfismo con respecto a ε\varepsilon y tiene primeras derivadas parciales. Ahora definimos estas primeras derivadas como
ξ(x,y):=dx^dεη(x,y):=dy^dε(1)\xi(x,y):=\frac{d\hat{x}}{d\varepsilon} \qquad \eta(x,y) := \frac{d\hat{y}}{d\varepsilon} \qquad (1)

y observamos que cuando ε=0\varepsilon=0 entonces son funciones de xx y yy. Por tanto las series de Taylor que se admiten hasta el primer grado quedan como
x^=x+εξ(x,y)+O(ε2),\hat{x}=x+\varepsilon\xi(x,y)+O (\varepsilon^2),

y^=y+εη(x,y)+O(ε2),\hat{y}=y+\varepsilon\eta(x,y)+O (\varepsilon^2),

ω(x^,y^)=ω+ε(ωxξ(x,y)+ωyη(x,y))+O(ε2).\omega(\hat{x},\hat{y}) = \omega + \varepsilon(\omega_x\xi(x,y) + \omega_y\eta(x,y))+O(\varepsilon^2).

Los coeficientes de ε\varepsilon son funciones continuas y las hemos nombrado ξ\xi y η\eta. Esto porque ε=0\varepsilon=0 conlleva que Γε=id\Gamma_\varepsilon = id y luego x^=x\hat{x} = x etc. Si ahora, a modo de ejercicio, sustituyéramos las series, las reordenáramos, y comparáramos los coeficientes de ε\varepsilon, descubriríamos

ηx+(ηyξx)ωξyω2=ξωx+ηωy,\eta_x+(\eta_y-\xi_x)\omega-\xi_y\omega^2=\xi\omega_x+\eta\omega_y,

igualdad a la que llamamos condición de simetría linealizada (CSL).

Aunque esta condición tampoco parece muy sencilla, con un ansatz, es mucho más fácil de solucionar que la condición inicial.
Tras solucionar esta, tenemos las funciones η\eta y ξ\xi en términos de xx e yy.

2.2. Coordenadas canónicas

Ahora nos desviamos un poco para hablar de las coordenadas canónicas, las cuales vamos a derivar con η\eta y ξ\xi. Te prometo que tendrán un valor incalculable solucionando la ecuación y que este no un side-quest.

Estamos muy acostumbrados a trabajar con coordenadas cartesianas. En estas, tenemos dos ejes perpendiculares, xx y yy, y un punto se describe por la 2-tupla (a,b)(a,b). Este corresponde al único punto compartido por la linea perpendicular al eje xx pasando por aa y la linea perpendicular al eje yy pasando por bb.

Sin embargo, es posible describir el mismo punto en el espacio de otra forma. Un ejemplo típico es las coordenadas polares. Un par (r,θ)(r,\theta) corresponde al punto en la linea a θ\theta radianes del eje xx a una distancia rr del origen. También es posible intercambiar expresiones. El punto descrito por (r,θ)(r,\theta) es equivalente a (rcosθ,rsinθ)(r\cos\theta,r\sin\theta) en el sistema cartesiano, aunque en el plano polar se parece a un sistema cartesiano.

De hecho, uno puede ver que en la figura derecha, hay infinitos pares de coordenadas que físicamente corresponden al mismo punto en el plano. Por ejemplo, (1,0)(1, 0) y (1,2π)(1,2\pi) son el mismo punto en realidad. Lo importante, es que siempre podemos encontrar un entorno abierto del punto de interés en el cual no hay dos formas distintas en las que representar el mismo punto en espacio. De ese modo, localmente podremos invertir coordenadas.

Ahora se pone interesante la cosa. Existe una gran variedad de sistemas de coordenadas, pero para resolver nuestra ecuación diferencial deseamos encontrar uno en particular que tiene una peculiaridad que hará mucho más sencilla nuestra ecuación. Consideramos un punto (x,y)(x,y) en el sistema cartesiano con representación (r,s)(r,s) en este sistema. La peculiaridad es que si

Γε(x,y)=(x^,y^)\Gamma_\varepsilon(x,y) = (\hat{x},\hat{y})

entonces (x^,y^)(\hat{x}, \hat{y}) corresponde a (r,s+ε)(r,s+\varepsilon). En este nuevo sistema de coordenadas, aplicar una simetría de la ecuación se ve como una traslación vertical. Demostremos por qué es tan increíble esto.

Nuestra ecuación

dydx=ω(x,y)\frac{dy}{dx} = \omega(x,y)

se puede convertir a este nuevo sistema también. Digamos que ahora, para algún Ω:D^R\Omega: \hat{D}\to \R, es
dsdr=Ω(r,s),\frac{ds}{dr} = \Omega(r,s),

y aquí sucede el milagro. Acabamos de suponer que una solución s=f(r)s = f(r), bajo nuestras simetrías, va a s=f(r)εs=f(r)-\varepsilon. Por tanto, cada solución se expresa como s=f(r)c,cRs = f(r) - c, c\in\R, para algún f(r)f(r) dentro de cierto entorno. Deducimos que
dsdr=f(r)=Ω(r,s).\frac{ds}{dr} = f'(r) = \Omega(r,s).

Por lo tanto, si podemos encontrar este sistema (r,s)(r,s), podemos reescribir la ecuación en derivadas como
dsdr=Ω(r).\frac{ds}{dr} = \Omega(r).

Maravillosamente, la derivada es independiente de ss y la solución solo es
s=Ω(r)dr+c.s = \int\Omega(r) dr +c.

Ahora bien, no siempre será posible calcular esta integral explícitamente, pero si no fuese posible, no habría sido posible obtener una mejor solución de otra forma. La belleza de este método es que (hablando sin demasiado rigor) podemos transformar nuestra ecuación a una forma más sencilla en la que probablemente se pueda resolver. Sin embargo, no olvidéis que no toda ecuación puede ser simplificada. Ahora, solo queda encontrar el sistema de coordenadas.

A lo mejor te has percatado de que esta solución ``sencilla" tiene algunos retos por superar. Por ejemplo, aunque una inversión del cambio de coordenadas nos brinde la solución, nos tenemos que asegurar de que tal inversión es posible, y que tal sistema de coordenadas existe.

Si has estudiado álgebra lineal, sabrás que para cambiar de un sistema, de una base a otra, hace falta que la matriz de cambio de base sea invertible. Hay un requisito semejante en nuestro caso: dado un punto (x,y)(x,y), un cambio de coordenadas es invertible en un entorno de él si el determinante de la matriz jacobiana,

J=[rxrysxsy],J=\begin{bmatrix} \frac{\partial r}{\partial x}& \frac{\partial r}{\partial y}\\ \frac{\partial s}{\partial x} & \frac{\partial s}{\partial y} \end{bmatrix},

es no nulo. Esto es una aplicación del teorema de la función inversa que garantiza que si nuestras funciones son continuas y las primeras derivadas también, con detJ0\det J\neq0 entonces existe una función inversa en un entorno de (x,y)(x,y). A veces un cambio de coordenadas valdrá para todo el dominio de la solución de nuestra ecuación diferencial, mientras que hay casos en que se precisarán varios cambios locales diferentes. Procedemos a la derivación del sistema, suponiendo que tal sistema existe.

Sea (x,y)(x,y) un punto de una curva solución. La órbita de este punto es el conjunto de puntos que (x,y)(x,y) puede tener como imagen bajo las simetrías de nuestro grupo.

O(x,y)={Γε(x,y)ΓεG}.O(x,y) = \{\Gamma_\varepsilon(x,y)\mid \forall \hspace{0.5mm}\Gamma_\varepsilon \in G\}.

Ahora, la órbita es una curva continua, porque Γε\Gamma_\varepsilon es continuo en ε\varepsilon. Al variar ε\varepsilon consideremos el vector tangente en el espacio (r,s)(r,s). Puesto que Γε\Gamma_\varepsilon solo corresponde a una traslación vertical, la órbita en (r,s)(r,s) es una recta vertical y el vector tangente es (0,1)=(drdε,dsdε)(0,1) = (\frac{dr}{d\varepsilon}, \frac{ds}{d\varepsilon}).
Por la regla de la cadena y (1)(1) se tienen
drdε=ξrx+ηry=0,\frac{dr}{d\varepsilon} = \xi r_x + \eta r_y = 0,

dsdε=ξsx+ηsy=1.\frac{ds}{d\varepsilon}= \xi s_x + \eta s_y = 1.

Estas ecuaciones pueden ser muy complicadas dependiendo de qué sean η\eta y ξ\xi, pero hay un truco para solucionar la primera. Digamos que podemos encontrar una curva en R2,y=y(x)\R^2, y = y(x) tal que r(x,y(x))=xr(x,y(x))=x. Esto es útil porque así

drdx=rx+dydxr=0.\frac{dr}{dx}=r_x+\frac{dy}{dx}r=0.

Observamos que esta se parece a la primera ecuación si dividimos por ξ\xi, suponiendo que ξ0\xi \neq 0:
rx+ηξry=0.r_x+\frac{\eta}{\xi}r_y=0.

Luego solucionamos
dydx=ηξ\frac{dy}{dx}=\frac{\eta}{\xi}

para obtener una solución implícita ϕ(x,y)=c\phi(x,y)=c. ¡Ojo! Si ponemos r(x,y)=ϕ(x,y)=cr(x,y)=\phi(x,y)=c, por construcción de ϕ,y\phi, y se puede expresar como función de xx tal que dydx=ηξ\frac{dy}{dx}=\frac{\eta}{\xi}. Por tanto,
drdx=rx+ηξry=0=drdε.\frac{dr}{dx}=r_x+\frac{\eta}{\xi}r_y=0=\frac{dr}{d\varepsilon}.

Puede parecer que esete truco se ha sacado de la manga, pero es una técnica llamada integrales primeras.

Finalmente, podemos deducir también una expresión para ss con el mismo truco, dividiendopor ξ\xi y suponiendo que estamos en la curva y=y(x)y=y(x) tal que r(x,y)=cr(x,y)=c para obtener

sx+ηξsy=1ξ.s_x+\frac{\eta}{\xi}s_y=\frac{1}{\xi}.

Al aplicar la regla de la cadena con dxdx=sx+dydxsy\frac{dx}{dx}=s_x+\frac{dy}{dx}s_y tenemos
dsdx=1ξ\frac{ds}{dx}=\frac{1}{\xi}

y finalmente
s=dxξ(x,y(x,r))c=r(x,y).s = \int\frac{dx}{\xi(x,y(x,r))}\Bigr|_{c=r(x,y)}.

Arriba, gracias a que trabajamos en la curva y=y(x)y=y(x) con rr constante, drdx=0\frac{dr}{dx}=0 y podemos tratar a rr como constante en la integral.

Armados con expresiones explícitas de rr y ss, podemos obtener también las derivadas parciales de ambas funciones. Luego, por la regla de la cadena obtenemos

dsdr=DxsDxr=sx+ω(x,y)syrx+ω(x,y)ry.\frac{ds}{dr} = \frac{D_xs}{D_xr} = \frac{s_x +\omega(x,y)s_y}{r_x+\omega(x,y)r_y}.

Tras una sustitución, reordenamos esta expresión para obtener lo siguiente

dsdr=Ω(r).\frac{ds}{dr} = \Omega(r).

A lo mejor me crees muy audaz por suponer que Ω\Omega sea independiente de ss, pero es una consecuencia de las coordenadas canónicas. Estas coordenadas que hemos derivado son precisamente aquellas en que si s=f(r)s=f(r) es una solución, entonces las soluciones en nuestro dominio son de la forma s=f(r)+cs=f(r)+c para cRc \in \mathbb R. Nuestra expresión tiene que ser independiente de ss.

De esto sacamos la gran conclusión de todo nuestro trabajo hasta ahora. Expresamos s=f(r)s=f(r) como

s=Ω(r)dr.s = \int \Omega(r)dr.

Tras realizar la integración sustituimos ss y rr por sus expresiones en xx y yy para finalmente obtener nuestra solución en xx y yy.

2.3. ¿Siempre funciona?

Por más bello que sea este método, hay límites. No hay espacio para dar una explicación completa, pero obviamente para poder aprovechar simetrías, tienen que existir simetrías no triviales [^2]. Es decir, queremos simetrías que no dejan al conjunto de soluciones invariante. Esto se puede resumir en que

η(x,y)ω(x,y)ξ(x,y).\eta(x,y) \neq \omega(x,y)\xi(x,y).

Si te interesa saber más sobre esto, recomiendo que busques en los recursos en la bibliografía.
Es muy probable que estés un poco confundido sobre por qué funciona esta manera de resolver ecuaciones. Para aclarar todo, miremos un ejemplo.

3. Un ejemplo polar

Sea nuestra ecuación

dydx=y3+x2yyxxy2+x3+yx.\frac{dy}{dx}=\frac{y^3+x^2y-y-x}{xy^2+x^3+y-x}.

Si no has visto una ecuación así antes, probablemente no sepas qué hacer. Lo bueno es que es susceptible a un ataque por simetría porque, como verás más adelante
η(x,y)=axy3+x2yyxxy2+x3+yxby=ω(x,y)η(x,y).\eta(x,y) = ax \neq \frac{y^3+x^2y-y-x}{xy^2+x^3+y-x}by=\omega(x,y)\eta(x,y).

El primer paso es resolver la condición de simetría linealizada
ηx+(ηyξx)ωξyω2=ξωx+ηωy.\eta_x+(\eta_y-\xi_x)\omega-\xi_y\omega^2=\xi\omega_x+\eta\omega_y.

Como te he advertido antes, tampoco siempre es fácil de solucionar, pero con un ansatz podremos proseguir. Sustituimos ω,ωx\omega, \omega_x, y ωy\omega_y para obtener
ωx=(xy2+x3+yx)(2xy1)(y3+x2yyx)(y2+3x21)(xy2+x3+yx)2=2x2y3x4y+2xy2+2x2y+2x32yy5+2y3(xy2+x3+yx)2=p(x,y)(xy2+x3+yx)2,\omega_x=\frac{(xy^2+x^3+y-x)(2xy-1)-(y^3+x^2y-y-x)(y^2+3x^2-1)}{(xy^2+x^3+y-x)^2}=\frac{-2x^2y^3-x^4y+2xy^2+2x^2y+2x^3-2y-y^5+2y^3}{(xy^2+x^3+y-x)^2}= \frac{p(x,y)}{(xy^2+x^3+y-x)^2},

y
ωy=(xy2+x3+yx)(3y2+x21)(y3+x2yyx)(2xy+1)(xy2+x3+yx)2=x5+2x3y22x3+2x2y+xy42xy2+2x+2y3(xy2+x3+yx)2=q(x,y)(xy2+x3+yx)2.\omega_y=\frac{(xy^2+x^3+y-x)(3y^2+x^2-1)-(y^3+x^2y-y-x)(2xy+1)}{(xy^2+x^3+y-x)^2}=\frac{x^5+2x^3y^2-2x^3+2x^2y+xy^4-2xy^2+2x+2y^3}{(xy^2+x^3+y-x)^2}= \frac{q(x,y)}{(xy^2+x^3+y-x)^2}.

Sustituimos en la CSL, multiplicando por (xy2+x3+yx)2(xy^2+x^3+y-x)^2 en ambos lados
ηx(xy2+x3+yx)2+(ηyξx)((xy2+x3+yx)(y3+x2yyx))ξy(y3+x2yyx)2=ξp(x,y)+ηq(x,y)\eta_x(xy^2+x^3+y-x)^2+(\eta_y-\xi_x)((xy^2+x^3+y-x)(y^3+x^2y-y-x))-\xi_y(y^3+x^2y-y-x)^2=\xi p(x,y)+\eta q(x,y)

No será de sorprender que ahora te preguntes a qué demonio hemos engendrado aquí. Sin embargo, si tomamos un ansatz de η=ax+by+c\eta = ax +by +c y ξ=mx+ny+p\xi = mx+ny +p, todo se hará más sencillo:
(mx+ny+p)(2x2y3x4y+2xy2+2x2y+2x32yy5+2y3)+(ax+by+c)(x5+2x3y22x3+2x2y+xy42xy2+2x+2y3)=a(xy2+x3+yx)2+(bm)((xy2+x3+yx)(y3+x2yyx))n(y3+x2yyx)2(mx+ny+p)(-2x^2y^3-x^4y+2xy^2+2x^2y+2x^3-2y-y^5+2y^3)+(ax+by+c) (x^5+2x^3y^2-2x^3+2x^2y+xy^4-2xy^2+2x+2y^3) = a(xy^2+x^3+y-x)^2+(b-m)((xy^2+x^3+y-x)(y^3+x^2y-y-x))-n(y^3+x^2y-y-x)^2

Comparamos los coeficientes de yky^k:

  • Considerando y6y^6, no observamos nada, salvo que cualquier nn vale.
  • Considerando y5y^5 vemos que py5=0    p=0-py^5 =0\implies p=0.
  • Los coeficientes de y4y^4 dan
    2n+2b=bm+2n.2n+2b = b-m+2n.
    Luego, b=m=0b=-m=0.
  • El y3y^3 da que c=0c=0.
  • El coeficiente de y2y^2 aporta a=na=-n.
    Ahora, si sustituimos η=ax\eta = ax y ξ=ay\xi = -ay, obtenemos igualdad. ¡Qué fácil! En el futuro recomiendo que dejes que WolframAlpha haga el esfuerzo bruto. En este paso, podríamos fácilmente poner a=1a=1, pero lo dejamos como incógnita para que observes que desaparece. Solo queremos un η\eta y un ξ\xi que solucionen la ecuación. El próximo paso es resolver la siguiente ecuación
    rxxyry=0r_x-\frac{x}{y}r_y=0

    para encontrar un r(x,y)r(x,y).
    Reconocemos que si r2=x2+y2r^2 = x^2+y^2 con rr constante, entonces dydx=xy\frac{dy}{dx} = -\frac{x}{y}. Por tanto nos quedamos con
    r=x2+y2.r=\sqrt{x^2+y^2}.
    Calculamos
    s=dxξ(x,y(r,x))s=\int \frac{dx}{\xi(x, y(r,x))}
    y obtenemos
    s=dxξ(x,y(r,x))=dxr2x2=arccos(xr).s=\int \frac{dx}{\xi(x, y(r,x))} = \int \frac{dx}{-\sqrt{r^2-x^2}} = \arccos{\left(\frac{x}{r}\right)}.

    Espera. Arriva tuvimos que sustituir y=r2x2y = \sqrt{r^2-x^2} en ξ(x,y)\xi(x,y), pero ¿por qué no elegimos y=r2x2y=-\sqrt{r^2-x^2}? Aquí se ha de actuar con cuidado. La matriz jacobiana tiene determinante no nulo cuando r,s0r, s \neq 0 así que la inversión se puede realizar, pero hacemos la integración en dos casos, r=±r2x2r = \pm \sqrt{r^2-x^2}, solo por necesidad de cubrir todo el espacio.
    Nótese que podemos deducir x=rcossx=r\cos{s}. Demostrar además que ss equivale a θ\theta en un sistema polar no es difícil.
    ¡No queda mucho ahora! Lo difícil está hecho y tenemos nuestro sistema de coordenadas
    r=x2+y2s=±arccos(xx2+y2)r = \sqrt{x^2+y^2} \qquad s = \pm\arccos\left(\frac{x}{\sqrt{x^2+y^2}}\right)

Dejamos el ±\pm porque hay dos regiones, como hablamos antes. Queremos sustituir esto en

y^x+ω(x,y)y^yx^x+ω(x,y)x^y=ω(x^,y^)\frac{\hat{y}_x+\omega(x,y)\hat{y}_y}{\hat{x}_x+\omega(x,y)\hat{x}_y} = \omega({\hat{x},\hat{y}})

donde tratamos (x,y)(r,s)(x,y) \mapsto (r,s) como una simetría. Dale una vuelta a por qué podemos hacer esto. Finalmente
\frac{ds}{dr}&=\frac{\frac{-y}{x^2+y^2}+\frac{y^3+x^2y-y-x}{xy^2+x^3+y-x}\frac{x}{x^2+y^2}}{\frac{x}{\sqrt{x^2+y^2}}+\frac{y}{\sqrt{x^2+y^2}}\frac{y^3+x^2y-y-x}{xy^2+x^3+y-x}} =\frac{1}{r}\frac{-y(xy^2+x^3+y-x)+x(y^3+x^2y-y-x)}{x(xy^2+x^3+y-x)+y(y^3+x^2y-y-x)} =\frac{1}{r(1-r^2)}.

Esta ecuación diferencial sí que la podemos resolver mediante el método de las fracciones parciales. Esto nos otorga
s=12lnr21r2+c2s=\frac{1}{2}\ln{\left|\frac{r^2}{{1-r^2}}\right|}+c_2
que en el sistema xx-yy es
y=xtan(12lnx2+y21x2y2+c2).y=x\tan\left({\frac{1}{2}\ln{\left|\frac{x^2+y^2}{1-x^2-y^2}\right|}}+c_2\right).

Puesto que el espacio (r,s)(r,s) equivale a un sistema polar, vemos que
(r,θ)(r,θ+ε)(r, \theta) \mapsto (r, \theta +\varepsilon)
bajo la simetría Γε\Gamma_\varepsilon. Esto corresponde a una rotación en el espacio (x,y)(x,y), lo cual cobra sentido recordando que ss corresponde a θ\theta. Por tanto, el grupo de simetrías del conjunto de soluciones en (x,y)(x,y) es SO(2)SO(2).
El conjunto de soluciones posee simetría rotacional.
Abajo hay tres soluciones distintas con c2=0,c2=π3c_2=0, c_2 = \frac{\pi}{3} y c2=2π3c_2 = \frac{2\pi}{3} dibujadas con Desmos [^3].

Otros tipos de simetrías comunes son las traslaciones verticales, las inversiones y las dilataciones.

4. Conclusión

Nuestra búsqueda se acaba. Hemos estudiado las simetrías, descubierto sistemas de coordenadas raras, y forjado un arma que parece capaz de vencer a toda ecuación que ose levantarse en contra nuestra. Ciertamente me vi cautivado la primera vez que me encontré frente a este método, gracias a su unión de dos campos aparentemente distintos. Sin embargo, esta espada es de doble filo: podemos intercambiar la necesidad de solucionar directamente una ecuación complicada por la resolución de varias ecuaciones potencialmente más sencillas, pero solo si existen simetrías explotables correspondientes.

[^1] Hydon PE. Symmetry Methods for Differential Equations: A Beginner’s Guide. Cambridge
Texts in Applied Mathematics. Cambridge University Press, 2000
[^2] Available from: https://billcookmath.com/theses/2023-05-05-Sam_Auman-Symmetries_of_ODEs.pdf
[^3] Available from: https://www.desmos.com/calculator