WEBVTT

00:00:02.169 --> 00:00:04.929
Noticias, deportes y espectáculos en tu plataforma

00:00:04.929 --> 00:00:10.910
de podcast preferida. Grupo Fórmula. Detalles

00:00:10.910 --> 00:00:14.250
que merecen ser analizados. Transparencia a la

00:00:14.250 --> 00:00:17.329
hora de compartir los sucesos de la actualidad.

00:00:17.989 --> 00:00:25.050
Daniel y tu vida en Fórmula. La están usando.

00:00:25.170 --> 00:00:28.309
Eso no se puede negar. Y mientras algunos maestros

00:00:28.309 --> 00:00:30.769
advierten riesgos como el plagio y la pérdida

00:00:30.769 --> 00:00:33.149
de pensamiento crítico, otros la ven como una

00:00:33.149 --> 00:00:35.649
oportunidad para innovar en la enseñanza. El

00:00:35.649 --> 00:00:38.530
reto no es prohibirla, sino aprender a integrarla

00:00:38.530 --> 00:00:41.570
sin perder la esencia del aprendizaje. Y es que

00:00:41.570 --> 00:00:51.509
la IA llegó. Y no, no se va a ir. para muy buenos

00:00:51.509 --> 00:00:54.030
días, 10 de la mañana con un minuto. Hoy es lunes,

00:00:54.030 --> 00:00:57.530
lunes 23 de marzo del 2026. Bienvenidos, bienvenidas.

00:00:57.530 --> 00:00:59.329
Gracias por arrancar esta semana y esta mañana

00:00:59.329 --> 00:01:02.530
con nosotros. 23 de marzo, qué fecha para este

00:01:02.530 --> 00:01:06.290
país, 32 años del asesinato de Luis Donaldo Colosio.

00:01:06.390 --> 00:01:08.510
Un caso dio mucho de qué hablar esta semana.

00:01:08.549 --> 00:01:12.310
Un estudiante de odontología de la UNAM fue suspendida

00:01:12.310 --> 00:01:15.129
por haber usado chat GPT durante un examen. Eso

00:01:15.129 --> 00:01:18.689
dice su profesor. Eso dicen las autoridades universitarias.

00:01:19.069 --> 00:01:21.510
Ella presentó un amparo ante las autoridades

00:01:21.510 --> 00:01:24.390
federales, mismo que le fue otorgado. De esto

00:01:24.390 --> 00:01:26.230
hablaremos el día de hoy. Quédense con nosotros

00:01:26.230 --> 00:01:28.530
que esto apenas comienza y se va a poner mucho,

00:01:28.609 --> 00:01:36.129
muchísimo mejor. Y está con nosotros esta mañana

00:01:36.129 --> 00:01:38.790
Erika Mora. Ella seguramente usted la conoce.

00:01:38.829 --> 00:01:41.810
Es una queridísima amiga y colega, periodista

00:01:41.810 --> 00:01:44.250
especializada en temas jurídicos. Erika, ¿cómo

00:01:44.250 --> 00:01:47.099
estás? Muy buenos días. Querida Daniel, qué gusto

00:01:47.099 --> 00:01:50.079
estar contigo y con tu audiencia y bueno, para

00:01:50.079 --> 00:01:53.459
compartir un caso reciente. A ver, platícanos,

00:01:53.459 --> 00:01:57.799
porque de pronto cuando se juntan temas legales,

00:01:57.799 --> 00:01:59.920
jurídicos con los de la inteligencia artificial,

00:02:00.140 --> 00:02:02.260
se convierte un desastre todo lo que pasa en

00:02:02.260 --> 00:02:04.560
nuestra cabeza. Es un caso de un estudiante de

00:02:04.560 --> 00:02:08.060
la UNAM que fue suspendida, nada más en los términos

00:02:08.060 --> 00:02:11.460
más sencillos, por presuntamente, y aquí es importante

00:02:11.460 --> 00:02:14.120
esa palabra, haber usado chat GPT en un examen.

00:02:14.599 --> 00:02:18.599
Así es, tú lo planteas muy bien, Daniel. Es un

00:02:18.599 --> 00:02:22.500
caso reciente y yo creo que de los primeros que

00:02:22.500 --> 00:02:25.680
se van presentando ante tribunales federales

00:02:25.680 --> 00:02:30.340
de la relación que existe del uso de la inteligencia

00:02:30.340 --> 00:02:34.000
artificial en los sectores educativos. En este

00:02:34.000 --> 00:02:36.900
caso, como tú señalas muy bien, es un estudiante

00:02:36.900 --> 00:02:40.259
de la Facultad de Odontología de la UNAM que

00:02:40.259 --> 00:02:45.699
presentó un examen el año pasado. Durante la

00:02:45.699 --> 00:02:50.520
aplicación del examen se hizo una videograbación

00:02:50.520 --> 00:02:53.599
en la que se alcanza a observar a esta alumna

00:02:53.599 --> 00:02:57.599
que sacó varias veces el celular y también se

00:02:57.599 --> 00:03:00.879
alcanzan a apreciar como algunos destellos del

00:03:00.879 --> 00:03:04.919
dispositivo electrónico del celular. Después

00:03:04.919 --> 00:03:09.219
del examen, el profesor elaboró un acta donde

00:03:09.219 --> 00:03:13.530
señaló que la alumna consultó su celular. Y que

00:03:13.530 --> 00:03:16.969
presuntamente usó chat GPT. Es muy importante

00:03:16.969 --> 00:03:20.469
esto que subrayabas tú desde el inicio. Presuntamente

00:03:20.469 --> 00:03:26.129
usó chat GPT para resolver el examen. Hasta ese

00:03:26.129 --> 00:03:29.580
momento no hay nada probado. Incluso se observa

00:03:29.580 --> 00:03:32.099
que la alumna se señala que pudo haber tomado

00:03:32.099 --> 00:03:36.840
fotografías, pero tampoco hay nada que hasta

00:03:36.840 --> 00:03:41.219
ese momento lo determine. La única prueba que

00:03:41.219 --> 00:03:44.620
hay es esta videograbación del momento del examen

00:03:44.620 --> 00:03:47.580
en la que claramente saca el celular. ¿Qué hizo

00:03:47.580 --> 00:03:49.539
con el celular? Es algo que hasta ahora no se

00:03:49.539 --> 00:03:51.539
ha podido probar ni demostrar de ninguna manera.

00:03:51.919 --> 00:03:54.900
Así es, no hay ninguna evidencia que muestre

00:03:54.900 --> 00:03:58.159
que ella estaba utilizando inteligencia artificial

00:03:58.159 --> 00:04:02.280
durante el examen, solamente en la videograbación

00:04:02.280 --> 00:04:06.250
refleja que ella sacó el celular. incluso el

00:04:06.250 --> 00:04:09.490
profesor vio que estaba utilizando el celular

00:04:09.490 --> 00:04:11.930
y así se lo hizo saber, así lo reflejó en el

00:04:11.930 --> 00:04:14.550
acta administrativa, por lo que procedieron a

00:04:14.550 --> 00:04:17.730
iniciar un procedimiento disciplinario universitario.

00:04:17.750 --> 00:04:20.670
De este tipo de procedimientos le toca ver al

00:04:20.670 --> 00:04:24.209
Tribunal Universitario de la UNAM, quien concluyó

00:04:24.209 --> 00:04:27.050
que la alumna usó el celular durante el examen

00:04:27.050 --> 00:04:31.009
y ellos sí determinaron que usó inteligencia

00:04:31.009 --> 00:04:34.410
artificial. En el expediente que resuelve después

00:04:34.410 --> 00:04:38.930
el juzgado no se muestra cómo llegó a esa conclusión

00:04:38.930 --> 00:04:41.410
el tribunal universitario, sin embargo, pues

00:04:41.410 --> 00:04:44.589
decide imponerle la sanción de cuatro meses de

00:04:44.589 --> 00:04:48.350
suspensión. La estudiante inconforme y también

00:04:48.350 --> 00:04:50.649
en el ejercicio de sus derechos, pues promueve

00:04:50.649 --> 00:04:52.790
un juicio de amparo ante la justicia federal.

00:04:53.600 --> 00:04:57.720
que le tocó ver al juzgado decimoprimero de distrito

00:04:57.720 --> 00:04:59.860
en materia administrativa en la Ciudad de México.

00:04:59.939 --> 00:05:02.579
Es un caso que se resuelve aquí en la Ciudad

00:05:02.579 --> 00:05:07.259
de México. Y lo que hace el juzgado es muy interesante,

00:05:07.279 --> 00:05:11.860
porque lo primero que hace es hacer una valoración

00:05:11.860 --> 00:05:16.000
de las pruebas. Dice, a ver, tenemos como material

00:05:16.000 --> 00:05:19.949
probatorio en la videograbación. y el acta que

00:05:19.949 --> 00:05:22.970
levantó el profesor después del examen. En la

00:05:22.970 --> 00:05:25.589
videograbación, como ya mencionábamos, solamente

00:05:25.589 --> 00:05:28.329
se alcanza a apreciar que ella sacó el celular,

00:05:28.410 --> 00:05:31.709
pero no hay ninguna prueba de que haya utilizado

00:05:31.709 --> 00:05:34.670
inteligencia artificial. Y para el juzgado esto

00:05:34.670 --> 00:05:38.189
fue muy importante porque lo que determina que

00:05:38.189 --> 00:05:42.399
no puede ser solamente... por suposiciones o

00:05:42.399 --> 00:05:48.379
por presunciones. ¿En qué habían basado las autoridades

00:05:48.379 --> 00:05:51.360
universitarias su decisión? La habían basado

00:05:51.360 --> 00:05:56.259
en el hecho de que hubo destellos. de luz en

00:05:56.259 --> 00:05:59.480
el dispositivo electrónico y que sacó durante

00:05:59.480 --> 00:06:03.740
el examen el teléfono. Entonces ellos asumían

00:06:03.740 --> 00:06:06.600
de que posiblemente incluso le tomó fotografías

00:06:06.600 --> 00:06:11.399
al examen para poder subirlo a ChatDPT, una de

00:06:11.399 --> 00:06:15.920
las inteligencias artificiales. Y así había esa

00:06:15.920 --> 00:06:19.139
presunción, como tú muy bien lo decías. No tenían

00:06:19.139 --> 00:06:23.800
ninguna prueba. pues clara que mostrara que efectivamente

00:06:23.800 --> 00:06:28.000
lo habían utilizado. Ya, ya. Ok, entonces seguimos

00:06:28.000 --> 00:06:30.300
con la decisión del juez. El juez lo que hace,

00:06:30.420 --> 00:06:32.740
como te decía, esta valoración de las pruebas,

00:06:32.779 --> 00:06:36.779
lo que determina es que sí se probó que efectivamente

00:06:36.779 --> 00:06:39.980
la alumna sacó su celular varias veces, que lo

00:06:39.980 --> 00:06:42.779
consultó durante el examen. Pero lo que no está

00:06:42.779 --> 00:06:46.319
mostrado es que había la pantalla del celular.

00:06:46.500 --> 00:06:49.319
Ahí no hay manera, la videograbación no permite

00:06:49.319 --> 00:06:53.439
ver eso y tampoco no permite ver si entró a alguna

00:06:53.439 --> 00:06:57.220
inteligencia artificial para hacerle alguna consulta

00:06:57.220 --> 00:07:01.000
o si tomó fotografías del examen. Esa parte quedaba

00:07:01.000 --> 00:07:06.680
pues un poco como a oscuras, no había nada que

00:07:06.680 --> 00:07:09.779
lo probara. Y esto fue importante para el juzgado

00:07:09.779 --> 00:07:14.220
porque aquí aplica el tema de la presunción y

00:07:14.220 --> 00:07:19.660
de que se tenía que asumir que nada más había

00:07:19.660 --> 00:07:23.060
sacado el celular, pero que no estaba demostrado

00:07:23.060 --> 00:07:25.480
que hubiera utilizado inteligencia artificial.

00:07:25.600 --> 00:07:29.459
Y aquí es importante señalar y reafirmar, digamos,

00:07:29.680 --> 00:07:32.990
que la decisión de la universidad fue por usar

00:07:32.990 --> 00:07:35.250
inteligencia artificial, no por usar el celular,

00:07:35.350 --> 00:07:37.170
porque la pudieron haber sancionado por usar

00:07:37.170 --> 00:07:39.069
el celular en caso de que estuviese prohibido

00:07:39.069 --> 00:07:42.170
durante el examen, ¿cierto? Efectivamente, y

00:07:42.170 --> 00:07:44.170
muy importante esto que mencionas, Daniel, porque

00:07:44.170 --> 00:07:48.430
aquí lo que dice el tribunal es, si nada más

00:07:48.430 --> 00:07:53.009
se demostró que usó el teléfono durante el examen,

00:07:53.069 --> 00:07:56.930
la sanción debió de haber sido proporcional a

00:07:56.930 --> 00:08:02.290
esa conducta, no a una que se presupone. porque

00:08:02.290 --> 00:08:05.810
entonces al imponerle la suspensión de cuatro

00:08:05.810 --> 00:08:09.629
meses se convertía en una sanción excesiva o

00:08:09.629 --> 00:08:14.810
desmedida, no proporcional, algo que es un principio

00:08:14.810 --> 00:08:17.730
muy importante en el derecho, que la sanción

00:08:17.730 --> 00:08:20.430
que se imponga sea proporcional a la conducta

00:08:20.430 --> 00:08:24.290
que se intenta sancionar. Y bueno, en este caso,

00:08:24.389 --> 00:08:27.750
pues lo que deciden, le ordena el juzgado federal

00:08:27.750 --> 00:08:31.720
al tribunal universitario. a que imponga una

00:08:31.720 --> 00:08:35.720
nueva sanción acorde únicamente a la conducta

00:08:35.720 --> 00:08:40.100
que está aprobada. Es importante decir que no

00:08:40.100 --> 00:08:43.340
son hechos aislados, la verdad es pues muy revelador

00:08:43.340 --> 00:08:47.320
estadísticas recientes que muestran. que encuesta

00:08:47.320 --> 00:08:49.799
sobre la inteligencia artificial en educación

00:08:49.799 --> 00:08:53.620
superior en América Latina, 2026, muestran que

00:08:53.620 --> 00:08:57.559
el 97 % de estudiantes usan IA General. Sí, sí,

00:08:57.559 --> 00:09:02.659
sí, claro. Pues el 67 % la usa de manera diaria

00:09:02.659 --> 00:09:06.460
o semanal para tareas, para escolares, para buscar

00:09:06.460 --> 00:09:08.620
información, incluso para resolver problemas

00:09:08.620 --> 00:09:11.899
matemáticos, para hacer ensayos. Entonces, esta

00:09:11.899 --> 00:09:15.139
sentencia... abre un poco el debate respecto

00:09:15.139 --> 00:09:19.360
a cuál es el nivel probatorio que se le va a

00:09:19.360 --> 00:09:22.899
dar a las videograbaciones cuando se hable del

00:09:22.899 --> 00:09:25.820
uso de inteligencia artificial. Porque tú hacías

00:09:25.820 --> 00:09:28.940
muy bien énfasis en el tema de cuál era la prueba

00:09:28.940 --> 00:09:32.259
que estaba presentando el Tribunal Universitario

00:09:32.259 --> 00:09:35.460
como para presuponer que se usó inteligencia

00:09:35.460 --> 00:09:39.129
artificial, pues la videograbación. definitivamente

00:09:39.129 --> 00:09:44.490
no era la manera de demostrarlo porque no se

00:09:44.490 --> 00:09:46.990
alcanzaba a ver. El modelo educativo tiene que

00:09:46.990 --> 00:09:48.750
contemplar que el uso de la inteligencia artificial

00:09:48.750 --> 00:09:51.929
es la realidad, sí o sí, y tiene que aprender

00:09:51.929 --> 00:09:54.870
a modificarse y adaptarse con base en eso o está

00:09:54.870 --> 00:09:57.710
destinado a tener casos como estos todos los

00:09:57.710 --> 00:09:59.730
días, cada minuto, en todos los salones de clases.

00:10:00.330 --> 00:10:03.289
Claro, efectivamente, y además porque lo hemos

00:10:03.289 --> 00:10:06.990
visto ya también en otros tribunales, no es un

00:10:06.990 --> 00:10:10.789
hecho aislado este que llega, pues en este caso,

00:10:10.809 --> 00:10:14.570
a un tribunal del Poder Judicial de la Federación.

00:10:14.570 --> 00:10:18.490
Yo imagino que van a seguir presentándose más

00:10:18.490 --> 00:10:22.730
casos que darán cuenta de la necesidad de una

00:10:22.730 --> 00:10:27.240
regulación urgente. Hay un estudio que realizó

00:10:27.240 --> 00:10:31.000
la OSD, específicamente el capítulo 10, que tiene

00:10:31.000 --> 00:10:35.159
que ver con Digital Education Outlook 2023, y

00:10:35.159 --> 00:10:40.620
que da cuenta de que 18 países ya están regulando,

00:10:40.639 --> 00:10:43.580
cuentan con normas, con guías para el uso de

00:10:43.580 --> 00:10:46.440
la inteligencia artificial en el ámbito educativo.

00:10:46.600 --> 00:10:50.220
Entonces, en México, sí o sí. Este es el momento

00:10:50.220 --> 00:10:54.159
de hacerlo ya antes de que se vayan acumulando

00:10:54.159 --> 00:10:57.720
más casos y donde los alumnos, el alumnado tenga

00:10:57.720 --> 00:11:01.100
argumentos para defenderse, como fue en este

00:11:01.100 --> 00:11:04.299
caso. Claro, pues interesantísimo hablar de eso.

00:11:04.340 --> 00:11:06.139
Me temo que lo tendremos que hacer una y otra

00:11:06.139 --> 00:11:08.340
vez en todos los ámbitos. La inteligencia artificial

00:11:08.340 --> 00:11:11.600
es parte de nuestra vida y con ella hay que aprender

00:11:11.600 --> 00:11:16.120
a trabajar, a adaptarse en eso, en todos los

00:11:16.120 --> 00:11:18.529
sectores. Gracias, Erika. Al contrario a ti,

00:11:18.590 --> 00:11:21.830
Daniel, un gusto y un saludo especial para ti

00:11:21.830 --> 00:11:23.950
y también para tu audiencia. Gracias. Hacemos

00:11:23.950 --> 00:11:32.190
una pausa. Volvemos. Tenemos tu atención. Es

00:11:32.190 --> 00:11:34.450
por eso que este espacio es perfecto para que

00:11:34.450 --> 00:11:36.909
tu producto o servicio sea conocido por millones

00:11:36.909 --> 00:11:39.129
de personas que se encuentran en este momento

00:11:39.129 --> 00:11:43.129
en su casa, su oficina o en su automóvil. Aprovecha

00:11:43.129 --> 00:11:46.769
y anúnciate con nosotros. Somos rss .com y tenemos

00:11:46.769 --> 00:11:49.370
un paquete justo para ti. Escribe un correo a

00:11:49.370 --> 00:11:54.070
ventas arroba rss .com ventas arroba rss .com

00:11:54.070 --> 00:11:58.149
y sabrás que se siente estar en boca de todos.

00:11:59.750 --> 00:12:03.370
Aceptemos lo que sigue. Daniel Diturbide en Fórmula.

00:12:03.850 --> 00:12:07.690
Continuamos. Regresamos. Gracias por continuar

00:12:07.690 --> 00:12:09.929
con nosotros. Son las 10 de la mañana con 15

00:12:09.929 --> 00:12:12.990
minutos. Está con nosotros Luis Tapia. Luis Tapia

00:12:12.990 --> 00:12:15.929
es abogado, pero es profesor de Amparo en la

00:12:15.929 --> 00:12:18.669
Ibero. Luis, ¿cómo estás? Muy buenos días. Hola,

00:12:18.730 --> 00:12:21.049
Daniel. Buen día. Gracias por invitarme y un

00:12:21.049 --> 00:12:23.250
saludo a tu audiencia. Gracias. A ver, Luis,

00:12:23.330 --> 00:12:27.070
yo quiero que hoy hablemos como profe que eres,

00:12:27.149 --> 00:12:30.450
en tu cachucha de profe, y me digas qué onda

00:12:30.450 --> 00:12:33.409
con la inteligencia artificial, qué transición

00:12:33.409 --> 00:12:35.629
se está viviendo en las universidades con los

00:12:35.629 --> 00:12:38.580
alumnos. Ustedes como profesores entiendo que

00:12:38.580 --> 00:12:40.820
tú estás a favor del uso de la inteligencia artificial,

00:12:41.019 --> 00:12:43.759
pero en términos generales explícanos qué está

00:12:43.759 --> 00:12:47.940
pasando. Me parece que nos implica un red para

00:12:47.940 --> 00:12:51.899
enfrentarnos a una realidad que no se puede detener.

00:12:52.019 --> 00:12:55.200
Yo advierto que hay riesgos en el uso de la inteligencia

00:12:55.200 --> 00:12:58.320
artificial. Soy abogado y lo he estudiado desde

00:12:58.320 --> 00:13:02.139
esa perspectiva, pero como profesor también me

00:13:02.139 --> 00:13:05.799
doy cuenta que si le estoy dando clases a abogados,

00:13:06.299 --> 00:13:10.120
tengo que enseñarles a apropiarse de las herramientas

00:13:10.120 --> 00:13:12.659
que les da la inteligencia artificial para que

00:13:12.659 --> 00:13:16.659
las usen en la profesión. En concreto, yo les

00:13:16.659 --> 00:13:20.779
enseño cómo pueden usar ChatGPT, Cloud o alguna

00:13:20.779 --> 00:13:24.240
otra plataforma para mejorar sus argumentos.

00:13:24.240 --> 00:13:28.820
Pero esa plataforma no puede sustituir su juicio

00:13:28.820 --> 00:13:32.220
para saber, por ejemplo, si un amparo para...

00:13:32.620 --> 00:13:35.159
Pedir la liberación de una persona que fue detenida

00:13:35.159 --> 00:13:38.720
ilegalmente está bien hecho. Entonces, bajo esa

00:13:38.720 --> 00:13:43.220
idea, básicamente se pueden incorporar lo que

00:13:43.220 --> 00:13:46.220
les da la inteligencia artificial generativa

00:13:46.220 --> 00:13:50.720
para mejorar sus argumentos, pero no para sustituir

00:13:50.720 --> 00:13:54.779
su capacidad de redactar. Yo creo que en eso

00:13:54.779 --> 00:13:58.679
uno puede encontrar la diferencia. Ahora, acercarse

00:13:58.679 --> 00:14:01.419
a la inteligencia artificial solo con temor.

00:14:01.850 --> 00:14:05.889
solo pensando que trae cosas negativas, puede

00:14:05.889 --> 00:14:08.190
relegarnos de la conversación. Híjole, es que

00:14:08.190 --> 00:14:10.509
hay una línea muy delgada en lo que tú le pides

00:14:10.509 --> 00:14:14.669
a tus estudiantes, ¿cierto? O sea, es una palabra

00:14:14.669 --> 00:14:18.350
de más, una petición de más, un copiar y pegar

00:14:18.350 --> 00:14:21.649
de más. ¿Dónde está esa línea que tú intentas

00:14:21.649 --> 00:14:25.669
que tus alumnos no pasen, no crucen? Para mí...

00:14:25.879 --> 00:14:29.919
Una manera de verlo es como si uno tuviera una

00:14:29.919 --> 00:14:33.519
persona que le va a ayudar y le pide una tarea,

00:14:33.580 --> 00:14:40.259
una especie de asistente, un pasante. Yo les

00:14:40.259 --> 00:14:43.080
doy clases a alumnos de maestría, muchos de ellos

00:14:43.080 --> 00:14:46.399
ya son profesionales. Entonces les digo, si tú

00:14:46.399 --> 00:14:49.279
le pides a un pasante que tiene menos experiencia

00:14:49.279 --> 00:14:53.379
que tú, que te haga una tarea, la persona responsable

00:14:53.379 --> 00:14:57.320
de esa tarea eres tú. tienes que revisar qué

00:14:57.320 --> 00:15:00.600
artículo citó de la Constitución o de un código.

00:15:01.139 --> 00:15:04.000
Tienes que revisar si el caso que estás citando

00:15:04.000 --> 00:15:07.039
es adecuado. Y ahí es relevante porque hemos

00:15:07.039 --> 00:15:09.759
visto, hay muchas noticias de que la inteligencia

00:15:09.759 --> 00:15:13.039
artificial inventa casos. No, inventa, te voy

00:15:13.039 --> 00:15:16.779
a corregir una letra, inventa cosas. O sea, el

00:15:16.779 --> 00:15:19.419
margen, el rango de error de la inteligencia

00:15:19.419 --> 00:15:22.100
artificial es enorme. Y de pronto no nos dimos

00:15:22.100 --> 00:15:24.840
cuenta de que eso pasaba y la consideramos como

00:15:24.840 --> 00:15:28.100
un ser. infalible y con el que podíamos contar

00:15:28.100 --> 00:15:31.320
para todo. Totalmente, alucina. Entonces, esa

00:15:31.320 --> 00:15:34.320
realidad hay que tenerla en cuenta para que el

00:15:34.320 --> 00:15:37.320
producto final no sea lo que me dio la inteligencia

00:15:37.320 --> 00:15:41.700
artificial, sino mi habilidad para revisar que

00:15:41.700 --> 00:15:45.059
eso sea consistente y sea real. Ya es una cosa

00:15:45.059 --> 00:15:48.700
con la que se lidian el día a día en tu mundo,

00:15:48.740 --> 00:15:51.639
digamos, más allá de los estudiantes. Sí, sí,

00:15:51.639 --> 00:15:55.919
en el mundo del derecho. evidentemente está cambiando

00:15:55.919 --> 00:15:59.279
la manera en que se hacen demandas, en que se

00:15:59.279 --> 00:16:02.759
revisan contratos, en que los jueces resuelven

00:16:02.759 --> 00:16:05.840
casos, en la manera en que se elabora la sentencia,

00:16:05.840 --> 00:16:09.080
en cómo se argumenta ante tribunales. Es un hecho.

00:16:09.179 --> 00:16:12.720
Está cambiando. ¿Qué peligro? Es peligroso, sí.

00:16:12.919 --> 00:16:16.080
Ciertamente yo no soy, digamos, ingenuo sobre

00:16:16.080 --> 00:16:19.419
eso. Me ha tocado estudiar. Casos de América

00:16:19.419 --> 00:16:22.379
Latina, por ejemplo, de Colombia o de propios

00:16:22.379 --> 00:16:25.480
Estados Unidos o de Europa, donde se decía que

00:16:25.480 --> 00:16:27.779
la inteligencia artificial ayuda a predecir delitos

00:16:27.779 --> 00:16:29.960
y a saber qué persona va a cometer un crimen.

00:16:30.000 --> 00:16:33.379
Y eso es súper peligroso porque se puede privar

00:16:33.379 --> 00:16:36.899
de derechos a personas basadas en lo que un algoritmo

00:16:36.899 --> 00:16:39.940
dice. Y entonces intentar usarla sin conocimiento

00:16:39.940 --> 00:16:41.919
es cuando se vuelve más peligroso. Tienes un

00:16:41.919 --> 00:16:45.309
punto en eso. Eso he notado mucho, sobre todo,

00:16:45.370 --> 00:16:47.710
no sé si es una brecha generacional, pero me

00:16:47.710 --> 00:16:50.710
ha pasado que con personas mayores lo descubren,

00:16:50.769 --> 00:16:54.190
les da como que, no sé, mucha emoción y dicen,

00:16:54.289 --> 00:16:56.809
ya está, me puede escribir un artículo, me puede

00:16:56.809 --> 00:17:00.490
hacer casi que un libro y no verifican. Y entonces

00:17:00.490 --> 00:17:03.629
se exhiben porque además hemos visto estos textos

00:17:03.629 --> 00:17:07.150
tan parcos, llenos de adjetivos. Ahora resulta

00:17:07.150 --> 00:17:09.230
que la gente que no sabía escribir con frases

00:17:09.230 --> 00:17:11.849
cortas como los abogados empiezan a escribir.

00:17:12.470 --> 00:17:15.450
oraciones de tres o cuatro palabras y es muy

00:17:15.450 --> 00:17:17.349
evidente que están usando inteligencia artificial,

00:17:17.710 --> 00:17:21.910
¿no? Como profesor, ¿cuándo y cómo te diste cuenta

00:17:21.910 --> 00:17:27.089
de la importancia de enseñarles a usar la inteligencia

00:17:27.089 --> 00:17:29.029
artificial? Ahora que me explicabas un poco tu

00:17:29.029 --> 00:17:33.049
teoría o tu pensamiento sobre esto, es más bien,

00:17:33.069 --> 00:17:35.829
si no puedes contra el enemigo, únetele y saca

00:17:35.829 --> 00:17:38.710
lo mejor que puedas sacar de él, ¿no? Lo empecé

00:17:38.710 --> 00:17:41.380
a implementar a principios del año pasado. Pero

00:17:41.380 --> 00:17:44.799
lo hice de este modo. Les puse un caso hipotético

00:17:44.799 --> 00:17:47.740
para que trabajaran en equipo y les di instrucciones

00:17:47.740 --> 00:17:50.420
para que hicieran un concepto de violación, que

00:17:50.420 --> 00:17:53.119
es una cosa técnica de amparo, y que revisaran

00:17:53.119 --> 00:17:55.480
cuáles eran los hechos relevantes jurídicamente.

00:17:55.779 --> 00:17:58.359
Pero no les dije que estaban compitiendo con

00:17:58.359 --> 00:18:00.839
la inteligencia artificial. Me dieron sus resultados,

00:18:01.140 --> 00:18:03.740
los equipos presentados, hicimos feedback y les

00:18:03.740 --> 00:18:05.910
dije, adivinen qué. La inteligencia artificial

00:18:05.910 --> 00:18:08.109
compitió con ustedes. Ustedes se tardaron media

00:18:08.109 --> 00:18:10.809
hora, cada uno se tardó menos de medio segundo

00:18:10.809 --> 00:18:14.750
para responder. Entonces, aquí está la respuesta.

00:18:15.069 --> 00:18:18.890
Y revisamos en conjunto los errores y revisamos

00:18:18.890 --> 00:18:21.390
en qué lo había hecho mejor y revisamos cómo

00:18:21.390 --> 00:18:23.769
no había tenido un contexto adecuado y cómo no

00:18:23.769 --> 00:18:25.950
había visto cosas que habíamos discutido en clase

00:18:25.950 --> 00:18:29.170
y que evidentemente no supo responder. ¿Qué opinión

00:18:29.170 --> 00:18:30.890
te merece este caso del que hablábamos, no sé

00:18:30.890 --> 00:18:32.990
si tengas conocimiento de él, que fue noticia

00:18:32.990 --> 00:18:35.789
este fin de semana de esta alumna de la UNAM

00:18:35.789 --> 00:18:38.329
que se amparó porque la suspendieron porque usó

00:18:38.329 --> 00:18:41.029
Chachipi en un examen? O sea, me parece interesante

00:18:41.029 --> 00:18:43.950
desde varias perspectivas, pero te diría rápido

00:18:43.950 --> 00:18:46.829
que hace falta regular. O sea, esa es una discusión

00:18:46.829 --> 00:18:49.269
mundial. No hay regulación en materia de inteligencia

00:18:49.269 --> 00:18:51.750
artificial. La tecnología nos está rebasando.

00:18:52.009 --> 00:18:55.730
La falta de regulación está haciendo que lleguen

00:18:55.730 --> 00:18:58.029
estos casos y que la regulación existente no

00:18:58.029 --> 00:19:01.930
sea suficiente. Digamos, en el caso específico,

00:19:01.930 --> 00:19:03.950
lo que terminó pasando es que más bien no se

00:19:03.950 --> 00:19:06.670
logró probar que ella usó chat GPT. Y lo que

00:19:06.670 --> 00:19:09.309
dijo la jueza al resolver es, bueno, pues se

00:19:09.309 --> 00:19:11.009
le debe sancionar por sacar su celular durante

00:19:11.009 --> 00:19:15.329
el examen, pero no por el uso de chat GPT. Ahora,

00:19:15.569 --> 00:19:19.190
ese caso para mí deja esa discusión abierta.

00:19:19.549 --> 00:19:21.950
¿Se puede usar y qué regulación hay para universidades

00:19:21.950 --> 00:19:24.089
públicas y privadas? En este caso una pública.

00:19:24.329 --> 00:19:26.769
¿Qué reglas va a haber para prepas? ¿Qué reglas

00:19:26.769 --> 00:19:29.190
va a haber para secundarias y primarias? ¿Cómo

00:19:29.190 --> 00:19:31.730
se va a usar en el sector público? ¿La Cámara

00:19:31.730 --> 00:19:34.950
de Diputados puede usar ChatGPT para hacer nuevas

00:19:34.950 --> 00:19:38.829
leyes? ¿El Senado de España ya tiene un reglamento

00:19:38.829 --> 00:19:41.289
para uso de inteligencia artificial dentro del

00:19:41.289 --> 00:19:43.890
Senado? O sea, me parece que un poco la discusión

00:19:43.890 --> 00:19:48.289
ahí va por la regulación que... Sí, digo, vamos

00:19:48.289 --> 00:19:51.069
tarde. En Europa tienen un tratado internacional,

00:19:51.329 --> 00:19:53.069
la Unión Europea tiene su tratado internacional

00:19:53.069 --> 00:19:55.970
sobre inteligencia artificial y la tendencia

00:19:55.970 --> 00:19:58.390
de este lado, impulsada por Estados Unidos, es

00:19:58.390 --> 00:20:00.890
que no hay que regular, hay que impulsar desarrollo

00:20:00.890 --> 00:20:03.750
porque hay que ganar la carrera. Ahora, siempre

00:20:03.750 --> 00:20:06.009
y cuando no se legis... y se hagan las leyes

00:20:06.009 --> 00:20:08.349
por medio de inteligencia artificial, que con

00:20:08.349 --> 00:20:10.250
nuestros diputados y nuestros senadores todo

00:20:10.250 --> 00:20:13.039
puede pasar. Está pasando, o sea, me parece.

00:20:13.160 --> 00:20:16.119
Yo por ahí vi un estudio de un senador, Ricardo

00:20:16.119 --> 00:20:19.640
Monreal, que publicó un libro sobre el análisis

00:20:19.640 --> 00:20:22.319
de la inteligencia artificial y su regulación,

00:20:22.319 --> 00:20:25.720
y no tiene fuentes el libro, y es un libro como

00:20:25.720 --> 00:20:30.960
de 200 páginas. Es que es increíble. Una inteligencia

00:20:30.960 --> 00:20:34.019
artificial, me da la impresión, ¿no? Si uno lo

00:20:34.019 --> 00:20:36.619
revisa, pero creo que ese va a ser el riesgo

00:20:36.619 --> 00:20:39.480
al final, que no terminemos siendo gobernados,

00:20:39.500 --> 00:20:42.700
gobernadas. por los agentes de la inteligencia

00:20:42.700 --> 00:20:45.799
artificial sin darnos cuenta. ¿Qué sigue? ¿Te

00:20:45.799 --> 00:20:48.880
asusta como profesor, como abogado, con estas

00:20:48.880 --> 00:20:51.059
cosas que nos dices que constantemente pasan

00:20:51.059 --> 00:20:53.319
en el mundo del derecho? ¿Te asusta que está

00:20:53.319 --> 00:20:55.180
avanzando más rápido que nosotros y que nuestra

00:20:55.180 --> 00:20:58.119
posibilidad de legislarlo y de regularlo? Sí,

00:20:58.140 --> 00:21:00.579
sí me asusta. Soy un entusiasta del uso de la

00:21:00.579 --> 00:21:03.119
inteligencia artificial, pero soy consciente

00:21:03.119 --> 00:21:07.599
de los temores. Me preocupa. que releguemos nuestro

00:21:07.599 --> 00:21:10.819
pensamiento crítico a una inteligencia artificial

00:21:10.819 --> 00:21:13.460
generativa. Me preocupa que no pensemos en los

00:21:13.460 --> 00:21:16.980
riesgos de discriminación, que no pensemos en

00:21:16.980 --> 00:21:20.319
el perfilamiento racial, que fácilmente compremos

00:21:20.319 --> 00:21:23.880
cosas como que ahora, te decía, nos van a predecir

00:21:23.880 --> 00:21:26.440
crímenes, como que ahora mediante cámaras de

00:21:26.440 --> 00:21:29.640
vigilancia van a poder revisar quién es o no

00:21:29.640 --> 00:21:32.619
responsable de haber cometido. una conducta,

00:21:32.619 --> 00:21:35.200
que le reglemos la decisión judicial a una máquina.

00:21:35.420 --> 00:21:38.519
Todo ese tipo de cosas sí me preocupan y creo

00:21:38.519 --> 00:21:41.140
que tenemos que tener conciencia de eso. Tiene

00:21:41.140 --> 00:21:42.720
muchísimo sentido lo que dices, porque además,

00:21:42.779 --> 00:21:45.359
si tú empiezas a usar inteligencia artificial

00:21:45.359 --> 00:21:49.140
para algo, se te olvida cómo hacerlo, aunque

00:21:49.140 --> 00:21:52.259
antes lo hicieras. Vas perdiendo práctica. Si

00:21:52.259 --> 00:21:55.299
antes redactabas algo y ahora se lo dejas a ChatGPT,

00:21:55.380 --> 00:21:58.119
genuinamente se te va olvidando, vas perdiendo

00:21:58.119 --> 00:22:01.359
práctica. Ahora sí. Si en el momento de tu formación

00:22:01.359 --> 00:22:03.799
lo único que haces es echar mano de la inteligencia

00:22:03.799 --> 00:22:06.299
artificial, es gravísimo. Lo digo muy sencillo.

00:22:06.380 --> 00:22:09.319
La otra vez fui a un tribunal, yo necesitaba

00:22:09.319 --> 00:22:12.079
presentar un escrito. No tenía tiempo de ir a

00:22:12.079 --> 00:22:14.279
un cibercafé, no tenía una computadora, nada

00:22:14.279 --> 00:22:17.480
a la mano, salvo una hoja y un papel. Entonces,

00:22:17.500 --> 00:22:20.619
¿qué hice? Escribí la promoción, ¿no? A mano.

00:22:21.180 --> 00:22:23.440
Entonces, yo me sabía los artículos, sé cómo

00:22:23.440 --> 00:22:26.240
se hace, solo me acordé, lo hice y lo entregué.

00:22:26.559 --> 00:22:28.500
Los nuevos abogados tal vez no van a poder hacer

00:22:28.500 --> 00:22:31.059
eso o muy seguramente no van a poder hacer eso

00:22:31.059 --> 00:22:34.099
porque todos lo tienen en un prompt metido en

00:22:34.099 --> 00:22:37.539
alguna de estas compañías y si no tienen esa

00:22:37.539 --> 00:22:40.799
capacidad o que vayan a un juicio oral y que

00:22:40.799 --> 00:22:44.140
les digan te toca hablar. Y ya valió, ahí es

00:22:44.140 --> 00:22:46.240
donde la puerca tuerce el rabo, dirían por ahí.

00:22:46.670 --> 00:22:49.509
Claro, ahí se bloquea totalmente y no sabe qué

00:22:49.509 --> 00:22:52.470
hacer. Ahí es donde veo riesgos y sí, la verdad,

00:22:52.549 --> 00:22:56.269
lo que estoy pensando este año es al menos el

00:22:56.269 --> 00:22:58.910
examen, si hacerlo oral. O sea, sí estoy pensando,

00:22:58.990 --> 00:23:02.029
no el 100 % de la calificación, pero sí un porcentaje

00:23:02.029 --> 00:23:05.089
que yo les escuche hablar y no solamente que

00:23:05.089 --> 00:23:07.410
sea escrito frente a una computadora, sino que

00:23:07.410 --> 00:23:11.250
tengan capacidad de argumentar utilizando argumentos,

00:23:11.250 --> 00:23:16.359
leyes, utilizando los hechos. y sabiendo interpretar

00:23:16.359 --> 00:23:19.420
la ley. Interesante. Exponiendo su razonamiento.

00:23:19.619 --> 00:23:21.539
Qué interesante, Luis. Gracias por haber tomado

00:23:21.539 --> 00:23:24.099
la llamada estos minutos. Gracias por invitarme,

00:23:24.119 --> 00:23:26.640
Daniel. Un gusto conversar. Igualmente. Hacemos

00:23:26.640 --> 00:23:41.019
una pausa. Volvemos. Noticias, deportes y espectáculos

00:23:41.019 --> 00:23:45.759
en tu plataforma de podcast preferida. Grupo

00:23:45.759 --> 00:23:51.960
Fórmula, abriendo la conversación. Regresamos,

00:23:51.960 --> 00:23:53.839
gracias por continuar con nosotros. 10 de la

00:23:53.839 --> 00:23:57.519
mañana con 30 minutos. Ahí el tema del día. ¿Y

00:23:57.519 --> 00:23:59.339
cuál es la historia de la que vamos a hablar

00:23:59.339 --> 00:24:03.720
el día de hoy? Fíjense, Vivi Jimena, que la BBC

00:24:03.720 --> 00:24:07.779
acaba de publicar un documental. de la estafa

00:24:07.779 --> 00:24:12.539
global a niños con cáncer. Padres desesperados

00:24:12.539 --> 00:24:14.779
de niños enfermos o moribundos en todo el mundo

00:24:14.779 --> 00:24:18.000
están siendo explotados por campañas de estafa

00:24:18.000 --> 00:24:21.180
en Internet. Así lo reveló esta investigación

00:24:21.180 --> 00:24:25.599
del Servicio Mundial de la BBC. El público ha

00:24:25.599 --> 00:24:28.079
donado dinero a las campañas que afirman recaudar

00:24:28.079 --> 00:24:31.680
fondos para tratamientos vitales. Y este documental

00:24:31.680 --> 00:24:36.019
habla de 15 familias. que afirman haber recibido

00:24:36.019 --> 00:24:39.519
poco o nada de los fondos recaudados y que a

00:24:39.519 --> 00:24:42.319
menudo ni siquiera sabían que las campañas se

00:24:42.319 --> 00:24:46.400
habían publicado. Vaya caso, vaya documental

00:24:46.400 --> 00:24:49.420
este que marca historia por historia algunas

00:24:49.420 --> 00:24:51.579
de las que nos van a platicar y de las cuales

00:24:51.579 --> 00:24:53.940
vamos a hablar hoy. ¡Qué drama, qué escándalo!

00:24:54.599 --> 00:24:56.460
Qué drama y qué escándalo, Dani, tienes toda

00:24:56.460 --> 00:24:59.400
la razón. En la publicación que hace la BBC,

00:24:59.579 --> 00:25:02.660
que por cierto, lleva varios años haciéndola,

00:25:02.660 --> 00:25:04.680
es decir, es una investigación que tiene muchos

00:25:04.680 --> 00:25:07.259
años, desde el 2023, por lo que estoy leyendo,

00:25:07.319 --> 00:25:10.759
pero viene la foto de un niño, un niño que está

00:25:10.759 --> 00:25:13.460
completamente rapado, un niño que se ve triste,

00:25:13.579 --> 00:25:17.000
y en esta investigación empiezan contando la

00:25:17.000 --> 00:25:19.140
historia de la persona que les estoy diciendo,

00:25:19.319 --> 00:25:22.839
que se llama Khalil. Entonces, bueno, obviamente

00:25:22.839 --> 00:25:26.069
era un video. en donde este niño decía, tengo

00:25:26.069 --> 00:25:28.410
siete años y tengo cáncer, por favor, sálvenme

00:25:28.410 --> 00:25:33.000
la vida y ayúdenme. Y cuentan que la mamá de

00:25:33.000 --> 00:25:35.299
este niño pues estaba desesperada porque Khalil

00:25:35.299 --> 00:25:38.579
sí tenía cáncer. Pero entonces cuando esta persona,

00:25:38.640 --> 00:25:40.680
que ahorita les voy a platicar quién es, les

00:25:40.680 --> 00:25:43.259
dijo, a ver, yo les voy a ayudar. Bueno, decidieron

00:25:43.259 --> 00:25:46.720
que aceptaron más bien la ayuda. Y entonces le

00:25:46.720 --> 00:25:49.099
pidieron a la mamá de Khalil, de nombre Aljin,

00:25:49.180 --> 00:25:52.740
que por favor le rapara la cabeza. Y luego le

00:25:52.740 --> 00:25:55.420
pusieron un suero falso al niño de siete años.

00:25:55.960 --> 00:26:00.160
Le dieron una cebolla. cebolla picada para que

00:26:00.160 --> 00:26:03.240
el niño pudiera llorar y le aplicaron mentol

00:26:03.240 --> 00:26:05.880
debajo de los ojos para hacerlo llorar. Y entonces,

00:26:05.980 --> 00:26:08.539
bueno, la mamá aceptó porque aunque todo era

00:26:08.539 --> 00:26:12.039
un montaje, en realidad sí tenía cáncer y necesitaban

00:26:12.039 --> 00:26:15.400
el dinero. Entonces, bueno, le dijeron a la mamá

00:26:15.400 --> 00:26:17.759
que este video ayudaría a recaudar fondos para

00:26:17.759 --> 00:26:20.599
un mejor tratamiento y efectivamente se recaudaron

00:26:20.599 --> 00:26:24.779
cerca de 27 mil dólares. Es un dineral. Y bueno,

00:26:24.839 --> 00:26:28.160
claramente... la mamá no recibió más que 700

00:26:28.160 --> 00:26:32.200
dólares. Y esto solamente como pago para el día

00:26:32.200 --> 00:26:35.400
que fueron a grabarlos, ¿no? Y en la historia

00:26:35.400 --> 00:26:37.839
que cuenta la BBC, bueno, nos enteramos que Khalil,

00:26:37.839 --> 00:26:40.619
este niño, falleció. Pero así, Dani, lo decías

00:26:40.619 --> 00:26:44.039
muy bien, muchas familias de las cuales hemos

00:26:44.039 --> 00:26:46.019
estado tratando como de investigar un poco más

00:26:46.019 --> 00:26:49.180
porque, a ver, son padres y madres desesperados

00:26:49.180 --> 00:26:52.339
por sus hijos y que están siendo víctimas de

00:26:52.339 --> 00:26:55.960
una estafa en línea de una persona. De origen

00:26:55.960 --> 00:26:59.359
israelí, jime. Sí, la verdad es que muy fuerte

00:26:59.359 --> 00:27:01.160
lo que descubre este documental, pero creo que

00:27:01.160 --> 00:27:03.059
se inserta en un tema más grande y que ya habíamos

00:27:03.059 --> 00:27:05.799
discutido con anterioridad acá, que se le llama

00:27:05.799 --> 00:27:07.740
como concepto pornografía de la pobreza, ¿no?

00:27:07.779 --> 00:27:10.259
Esto de buscar imágenes que son conmovedoras,

00:27:10.279 --> 00:27:13.099
incómodas de ver y aprovecharlas para sacar un

00:27:13.099 --> 00:27:15.119
beneficio, que ojalá en este caso hubiera sido

00:27:15.119 --> 00:27:18.160
para beneficio de las personas afectadas, pero

00:27:18.160 --> 00:27:20.380
que desafortunadamente demuestra que más bien

00:27:20.380 --> 00:27:23.099
era para el beneficio de personas que veían en

00:27:23.099 --> 00:27:25.299
el sufrimiento de las familias y de la necesidad

00:27:25.299 --> 00:27:27.480
económica por la enfermedad. una oportunidad

00:27:27.480 --> 00:27:30.559
de recaudar muchísimo dinero. Estaba viendo que

00:27:30.559 --> 00:27:34.119
también decían que buscaban niños hermosos de

00:27:34.119 --> 00:27:36.319
entre 3 y 9 años. O sea, que además no solamente

00:27:36.319 --> 00:27:39.720
era cualquier niño que tuviera cáncer, sino que

00:27:39.720 --> 00:27:42.099
tenían que tener cierta estética también para

00:27:42.099 --> 00:27:44.160
que cumplieran con el requisito y movían a la

00:27:44.160 --> 00:27:47.059
mayor cantidad de personas posibles. Y al final,

00:27:47.059 --> 00:27:49.579
lo que pasó con este niño, que fue el que como

00:27:49.579 --> 00:27:52.400
que llamó la atención de muchas personas por

00:27:52.400 --> 00:27:55.319
lo mucho que mueve el video, la verdad, y que

00:27:55.319 --> 00:27:58.859
sí es muy... triste de ver. es que como sea él

00:27:58.859 --> 00:28:02.259
se murió y después de su muerte su mamá se dio

00:28:02.259 --> 00:28:04.779
cuenta de que la campaña para recaudar dinero

00:28:04.779 --> 00:28:07.579
según está para su caso seguía arriba, o sea

00:28:07.579 --> 00:28:10.460
no solamente no le habían dado más que 700 dólares

00:28:10.460 --> 00:28:12.460
sino que todavía con la imagen de su hijo que

00:28:12.460 --> 00:28:15.079
había fallecido por esta enfermedad seguían lucrando

00:28:15.079 --> 00:28:18.339
con ella y seguían pues yo creo que moviendo

00:28:18.339 --> 00:28:20.799
a muchas personas en todo el mundo sin que los

00:28:20.799 --> 00:28:23.460
donadores supieran que era un niño que ya había

00:28:23.460 --> 00:28:25.680
fallecido de cáncer y que aún así como había

00:28:25.680 --> 00:28:27.720
sido una imagen que les había sido tan redituable,

00:28:27.859 --> 00:28:31.240
decidieron seguirla utilizando. En el documental

00:28:31.240 --> 00:28:34.059
hay una imagen muy fuerte de cuando la mamá le

00:28:34.059 --> 00:28:37.200
habla a uno de los organizadores de estas recaudaciones

00:28:37.200 --> 00:28:40.420
para enfrentarlo, y lo único que le dice, no,

00:28:40.500 --> 00:28:42.640
no es cierto, nosotros ya no estamos recaudando

00:28:42.640 --> 00:28:45.619
dinero desde hace tres años, pero no es el caso,

00:28:45.779 --> 00:28:48.660
¿no? Entonces, creo que en general, o sea, más

00:28:48.660 --> 00:28:53.640
allá de lo triste que es este caso y de lo terrible

00:28:53.640 --> 00:28:56.880
que es, Pues sí nos hace fijarnos un poco más

00:28:56.880 --> 00:28:58.680
acerca de las campañas que vemos en internet

00:28:58.680 --> 00:29:02.380
y qué tanto les creemos. Creo que los GoFundMe

00:29:02.380 --> 00:29:05.380
o estas plataformas que ayudan a juntar atención

00:29:05.380 --> 00:29:08.980
pueden ser un gran recurso, pero... demuestra

00:29:08.980 --> 00:29:11.440
que tenemos que ser cuidadosos otra vez con lo

00:29:11.440 --> 00:29:14.099
que vemos en Internet, porque no todo viene de

00:29:14.099 --> 00:29:16.400
las mejores intenciones, desafortunadamente.

00:29:16.400 --> 00:29:18.859
No, definitivamente. Ahorita vamos a hablar un

00:29:18.859 --> 00:29:20.759
poquito acerca de las campañas que ya mencionabas,

00:29:20.759 --> 00:29:23.700
pero bueno, esta red está vinculada a un hombre

00:29:23.700 --> 00:29:27.200
de nombre Erez Adari. Es un israelí que dirige

00:29:27.200 --> 00:29:30.039
una de estas organizaciones. Entonces, esta persona

00:29:30.039 --> 00:29:32.980
está vinculada a varias organizaciones benéficas

00:29:32.980 --> 00:29:36.380
con sede en Estados Unidos. Y en Israel, ¿no?

00:29:36.599 --> 00:29:39.519
La investigación que hace la BBC descubrió que

00:29:39.519 --> 00:29:43.259
esta persona reclutaba a exploradores para buscar

00:29:43.259 --> 00:29:45.680
a niños especialmente guapos, ¿no? Lo que ya

00:29:45.680 --> 00:29:48.619
decías, Jimé. De entre unos tres y nueve años.

00:29:48.880 --> 00:29:51.619
Y entonces, bueno, esta persona recaudó millones

00:29:51.619 --> 00:29:53.559
de dólares. Es que estamos hablando de millones

00:29:53.559 --> 00:29:55.980
de dólares. En donaciones que nunca llegaron

00:29:55.980 --> 00:29:58.519
a los niños. Los menores enfermos que habían

00:29:58.519 --> 00:30:00.980
venido de diferentes países fueron utilizados

00:30:00.980 --> 00:30:03.279
en videos altamente emotivos. Estaba viendo uno

00:30:03.279 --> 00:30:06.380
que publica la BBC. en donde utilizan también

00:30:06.380 --> 00:30:08.240
muchos subtítulos que llaman mucho la atención.

00:30:08.319 --> 00:30:12.240
Por ejemplo, dos meses para vivir, una foto de

00:30:12.240 --> 00:30:17.519
una niña que está llorando, unos mensajes en

00:30:17.519 --> 00:30:20.980
donde obviamente piden, pero de verdad suplican

00:30:20.980 --> 00:30:23.420
por ayuda y entonces esto hace que evidentemente

00:30:23.420 --> 00:30:27.720
muchísimas personas se conmuevan. En la BBC también

00:30:27.720 --> 00:30:30.380
dicen que trataron de dar con esta persona...

00:30:31.440 --> 00:30:34.779
que no pudieron dar con esta persona ni siquiera

00:30:34.779 --> 00:30:37.339
en sus domicilios en Canadá ni en otras partes

00:30:37.339 --> 00:30:40.279
del mundo, que lo único que hizo este señor fue

00:30:40.279 --> 00:30:44.519
contestarles una nota de voz que le mandó la

00:30:44.519 --> 00:30:47.380
BBC y en donde pues prácticamente no les dice

00:30:47.380 --> 00:30:50.019
nada, ¿no? O sea, dicen que, bueno, pues se trataron

00:30:50.019 --> 00:30:52.059
de poner en contacto con él, pero que simplemente

00:30:52.059 --> 00:30:55.200
no dieron con él, que no respondió a ninguna

00:30:55.200 --> 00:30:57.799
de estas acusaciones claramente y que lo único

00:30:57.799 --> 00:31:00.500
que dijo fue que, bueno, que una de sus organizaciones

00:31:00.500 --> 00:31:03.099
ya no... no estaba operando. Yo he tratado de

00:31:03.099 --> 00:31:05.940
buscar algunos de los nombres que utiliza este

00:31:05.940 --> 00:31:08.519
señor y no encontré ninguna. Pero lo que mencionas

00:31:08.519 --> 00:31:10.500
es bien importante, Jime, porque la semana pasada

00:31:10.500 --> 00:31:14.480
les platicábamos el caso de Ian, en donde evidentemente

00:31:14.480 --> 00:31:17.960
hablamos con la mamá. Ian necesita un tratamiento

00:31:17.960 --> 00:31:20.220
que es muy, muy costoso y que utiliza una de

00:31:20.220 --> 00:31:21.960
estas plataformas. De hecho, GoFundMe, que es

00:31:21.960 --> 00:31:24.539
yo creo que la más conocida. Hay algunas otras

00:31:24.539 --> 00:31:27.099
en donde, bueno, lo que nos decía la mamá es

00:31:27.099 --> 00:31:29.779
que ella sí recibe como el dinero directamente.

00:31:29.930 --> 00:31:32.269
pero pues claramente yo no sabía que existían

00:31:32.269 --> 00:31:35.029
tantas páginas para donar en este tipo de casos.

00:31:35.089 --> 00:31:37.809
Hay que ser súper cuidadosos. Sí, la BBC sí hizo

00:31:37.809 --> 00:31:40.470
este como esfuerzo de además comprobar incluso

00:31:40.470 --> 00:31:44.009
si las páginas eran reales. Porque también pensaron,

00:31:44.069 --> 00:31:46.150
bueno, quizás las cifras que vemos que normalmente

00:31:46.150 --> 00:31:48.369
ponen tantas firmas recaudadas o tanto dinero

00:31:48.369 --> 00:31:50.869
recaudado o así, ¿no? Podía también quizás estar

00:31:50.869 --> 00:31:53.549
inflado para fomentar que las personas donaran

00:31:53.549 --> 00:31:55.569
viendo que si ya se había recaudado cierta cantidad

00:31:55.569 --> 00:31:57.809
de dinero, entonces tenía que ser legítimo y

00:31:57.809 --> 00:32:00.190
apostar a que... la gente se sintiera inspirado

00:32:00.190 --> 00:32:03.170
por ello. Pero ellos dicen que buscaron dos casos,

00:32:03.289 --> 00:32:06.170
particularmente uno de una niña que también se

00:32:06.170 --> 00:32:08.069
llama Ana en Colombia, el que dices que tiene

00:32:08.069 --> 00:32:10.730
esta como muy tétrica frase de dos meses para

00:32:10.730 --> 00:32:13.369
vivir y el emoji del corazón roto. Y que la cantidad

00:32:13.369 --> 00:32:16.750
de dinero que ellos donaron sí se agregó de manera

00:32:16.750 --> 00:32:19.269
inmediata a la cuenta. Entonces que las cifras

00:32:19.269 --> 00:32:22.049
que se veían en estas páginas sí eran reales.

00:32:22.049 --> 00:32:25.289
Los casos es los que no se sabe qué tan exagerados

00:32:25.289 --> 00:32:26.670
están. Por ejemplo, estaba leyendo el de Ana,

00:32:26.750 --> 00:32:29.789
que se los voy a traducir. Dice... Veo a todas

00:32:29.789 --> 00:32:32.029
las personas poniéndose listas para la Navidad

00:32:32.029 --> 00:32:34.509
y yo aquí estoy con mi hija en el hospital. Ella

00:32:34.509 --> 00:32:36.990
tiene solo 8 años y ha sido conectada desde una

00:32:36.990 --> 00:32:39.309
máquina por meses. Todo lo que le puedo pedir

00:32:39.309 --> 00:32:42.369
a Dios es que mi hija Ana vaya a estar sana y

00:32:42.369 --> 00:32:44.990
pueda superar el cáncer. Mi esposa se murió cuando

00:32:44.990 --> 00:32:47.970
mi hija era solo una bebé. Por un mes y medio

00:32:47.970 --> 00:32:50.990
y hasta ahora no ha podido ni comer ni tomar

00:32:50.990 --> 00:32:53.569
nada, solamente llora en dolor. Ayer me dijo,

00:32:53.670 --> 00:32:56.369
papá, si no conseguimos el dinero para los tratamientos,

00:32:56.430 --> 00:32:58.529
¿me voy a morir para ir al cielo con mi mamá?

00:32:58.730 --> 00:33:01.089
O sea, como que son historias que no solamente

00:33:01.089 --> 00:33:04.349
son tristes por la imagen, este, aquí está como

00:33:04.349 --> 00:33:06.630
justo el título de dos meses para vivir y Ana

00:33:06.630 --> 00:33:08.769
conectada a una sonda llorando terriblemente,

00:33:08.849 --> 00:33:11.809
sino también las descripciones que ponen, este,

00:33:11.809 --> 00:33:15.029
abajo son absolutamente desgarradoras, ¿no? Y

00:33:15.029 --> 00:33:16.869
creo que esto también demuestra un poco acerca

00:33:16.869 --> 00:33:19.009
de qué tanto estamos dispuestos a poner de nosotros

00:33:19.009 --> 00:33:21.890
en internet y qué tanto incluso uno se tiene

00:33:21.890 --> 00:33:23.750
que vulnerar y exponer para que la gente esté

00:33:23.750 --> 00:33:25.569
dispuesta a apoyar este tipo de causas, que ojalá

00:33:25.569 --> 00:33:27.890
no fuera así, ¿no? O sea, que no tengan que poner...

00:33:27.980 --> 00:33:29.579
algo así de terrible para pensar que la gente

00:33:29.579 --> 00:33:31.960
se va a mover más o menos por un caso, pero que

00:33:31.960 --> 00:33:34.519
pues sí, llamó la atención de muchísimas personas

00:33:34.519 --> 00:33:36.460
que se exhumaron esta causa y pues parece que

00:33:36.460 --> 00:33:38.460
fueron estafados. Es que es lo que dices, Dani,

00:33:38.579 --> 00:33:40.359
o sea, pierdes la fe en la humanidad, porque

00:33:40.359 --> 00:33:43.480
por un lado, yo siento que muchas familias han

00:33:43.480 --> 00:33:47.069
logrado... Más bien han encontrado en internet,

00:33:47.230 --> 00:33:50.549
pues justo un milagro, ¿no? Yo he sabido de varias

00:33:50.549 --> 00:33:53.049
historias en donde, bueno, necesitaban recaudar

00:33:53.049 --> 00:33:55.650
muchísimo dinero y lo lograron gracias a las

00:33:55.650 --> 00:33:58.289
redes sociales y gracias a estas páginas. Pero

00:33:58.289 --> 00:34:00.069
por otro lado dices, no puede ser, ¿no? Estaba

00:34:00.069 --> 00:34:02.970
viendo también en la investigación de la BBC

00:34:02.970 --> 00:34:08.110
que hay una... Hay una familia justo en Ucrania,

00:34:08.110 --> 00:34:10.309
¿no? Que tienen la misma historia, ¿no? Que,

00:34:10.309 --> 00:34:12.309
bueno, pues tienen un video en donde obviamente

00:34:12.309 --> 00:34:16.130
esta organización los contactó, hicieron un video,

00:34:16.349 --> 00:34:21.289
recaudaron 280 mil euros, es un dineral. Y bueno,

00:34:21.349 --> 00:34:25.079
obviamente no recibieron ni un... Solo centavo.

00:34:25.159 --> 00:34:27.320
Son esas cosas que dices, no puede ser, ¿no?

00:34:27.460 --> 00:34:30.460
Porque aparte ni siquiera son personas que estaban

00:34:30.460 --> 00:34:32.500
bien de salud. O sea, sí son niños enfermos,

00:34:32.579 --> 00:34:34.539
que eso es lo que más coraje te da. Sí, que además

00:34:34.539 --> 00:34:37.199
esa es la otra, que buscaron personas, familias,

00:34:37.199 --> 00:34:39.219
porque creo que también podríamos apuntar el

00:34:39.219 --> 00:34:40.780
dedo a las familias y decir, bueno, ustedes se

00:34:40.780 --> 00:34:42.860
prestaron para esto, les entregaron un guión

00:34:42.860 --> 00:34:45.000
y exageraron, le pusieron mentol en los ojos

00:34:45.000 --> 00:34:46.980
a sus hijos, pero en una situación desesperada,

00:34:46.980 --> 00:34:49.369
pues más bien estas personas... encontrar una

00:34:49.369 --> 00:34:51.869
forma de lucrar con el sufrimiento y con la desesperación

00:34:51.869 --> 00:34:54.989
de la gente. Y pues sí, fue un mal medio, pero

00:34:54.989 --> 00:34:57.150
que consideraron necesario. Y pues yo creo que

00:34:57.150 --> 00:34:58.849
como padre harías todo lo posible por salvar

00:34:58.849 --> 00:35:01.289
a tu hijo. Incluso si es que hay este tipo de

00:35:01.289 --> 00:35:03.630
publicidad engañosa, pero que evidentemente no

00:35:03.630 --> 00:35:07.030
solamente los engañó a los que daban donaciones,

00:35:07.070 --> 00:35:08.989
sino también a las familias y muchos de los cuales

00:35:08.989 --> 00:35:11.110
ya perdieron a sus hijos. Así las cosas, Dani.

00:35:11.630 --> 00:35:14.050
Bueno, pues es esas cosas que le quitan la fe,

00:35:14.110 --> 00:35:16.309
que me quitan la fe y la esperanza en la humanidad.

00:35:16.389 --> 00:35:18.489
En fin, gracias, Jimé. Gracias, Vivi. Nos vamos

00:35:18.489 --> 00:35:23.070
a la pausa. Volvemos. ¿Quieres iniciar, hacer

00:35:23.070 --> 00:35:27.469
crecer o monetizar tu podcast? Todos los secretos.

00:35:27.469 --> 00:35:30.769
Los secretos de todos. ¿Dónde y cuándo quieras?

00:35:30.769 --> 00:35:35.269
¿Les va a cambiar la vida? RSS .com. Almacenamiento,

00:35:35.269 --> 00:35:37.670
distribución y programación de tus episodios

00:35:37.670 --> 00:35:41.760
en un solo lugar. y distribuido por RSS .com

00:35:41.760 --> 00:35:50.340
RSS .com Hacer podcast de manera fácil La Voz

00:35:50.340 --> 00:35:53.800
de la Sinceridad Daniel Diturbide En Fórmula

00:35:54.780 --> 00:35:56.860
En Mi Consultorio San Pablo puedes encontrar

00:35:56.860 --> 00:36:00.159
la vacuna contra influenza del 1 al 31 de marzo

00:36:00.159 --> 00:36:05.179
del 2026 y aplicártela por 478 pesos. Consulta

00:36:05.179 --> 00:36:07.599
a tu médico y acude a tu sucursal de Mi Consultorio

00:36:07.599 --> 00:36:10.260
San Pablo más cercana. Entra a miconsultorio

00:36:10.260 --> 00:36:13.659
.mx .com diagonal miconsultorio para más información

00:36:13.659 --> 00:36:17.099
sobre ubicaciones y horarios. O llama al 880

00:36:17.099 --> 00:36:20.860
-16900. Reporta cualquier sospecha de reacción

00:36:20.860 --> 00:36:24.159
al correo farmacovigilancia arroba F San Pablo.

00:36:24.269 --> 00:36:29.130
punto com. La voz de la sinceridad, Daniel Diturbide,

00:36:29.309 --> 00:36:36.570
en fórmula. Para oídos curiosos. ¿De qué va el

00:36:36.570 --> 00:36:39.059
dato para arrancar la semana, Vivi? Dani, hoy

00:36:39.059 --> 00:36:41.780
es el Día Meteorológico Mundial, también es el

00:36:41.780 --> 00:36:45.039
Día Mundial del Aprendizaje, y hoy es 23 de marzo,

00:36:45.079 --> 00:36:48.880
eso quiere decir que se cumplen 32 años del asesinato

00:36:48.880 --> 00:36:50.820
del entonces candidato a la presidencia del PRI,

00:36:50.920 --> 00:36:55.099
Luis Donaldo Colosio, un 23 de marzo de 1994,

00:36:55.960 --> 00:36:59.639
tras pronunciar un discurso, Colosio bajó del

00:36:59.639 --> 00:37:02.860
templete, se dirigió a pie a su camioneta rodeado

00:37:02.860 --> 00:37:06.079
de personas y una reducida escolta personal,

00:37:06.320 --> 00:37:09.280
y a las 5 de la tarde continuó 12 minutos aprovechando

00:37:09.280 --> 00:37:12.480
la multitud un hombre sacó un arma y le disparó

00:37:12.480 --> 00:37:15.820
cerca del oído derecho ya sabemos lo que ocurrió

00:37:15.820 --> 00:37:18.340
pero es un día en donde si te hace pensar muchas

00:37:18.340 --> 00:37:20.599
cosas sobre todo como en el contexto en el que

00:37:20.599 --> 00:37:23.860
estamos si la verdad es que el 94 cuando sucedió

00:37:23.860 --> 00:37:26.820
este asesinato fue un año de muchas cosas este

00:37:26.820 --> 00:37:29.119
de mucho movimiento en el país pero creo que

00:37:29.719 --> 00:37:32.199
Han habido pocos momentos políticos que han marcado

00:37:32.199 --> 00:37:34.880
tanto a tantas generaciones como la muerte de

00:37:34.880 --> 00:37:38.219
Luis Donaldo Colosio, que además se convirtió

00:37:38.219 --> 00:37:41.199
en esta persona como representante de la esperanza

00:37:41.199 --> 00:37:43.489
de muchas personas y él... qué hubiera sido si

00:37:43.489 --> 00:37:45.449
se hubiera llegado, porque prometía desde un

00:37:45.449 --> 00:37:47.369
discurso que movía a muchísimas personas el 6

00:37:47.369 --> 00:37:50.849
de marzo de 1994, como esta también estabilidad

00:37:50.849 --> 00:37:52.849
política que llevaba tantos años el PRI, ¿no?

00:37:52.929 --> 00:37:54.789
O sea, se creía que el PRI ya era como un molde

00:37:54.789 --> 00:37:56.989
muy claro acerca de quién era la persona que

00:37:56.989 --> 00:37:59.829
lanzaban a la presidencia. Y después cuando Colosio

00:37:59.829 --> 00:38:02.989
dice este famosísimo discurso que él veía mucho

00:38:02.989 --> 00:38:05.809
cansancio de las personas, sí fue así como...

00:38:06.079 --> 00:38:08.079
vaya, pues puede ser que estemos frente a un

00:38:08.079 --> 00:38:10.739
candidato diferente, después de tantos años del

00:38:10.739 --> 00:38:14.659
PRI en el poder, y después ver que parecía lo

00:38:14.659 --> 00:38:16.659
que decían que entre los PRIistas se empezaban

00:38:16.659 --> 00:38:19.059
a matar, yo creo que fue, para los que han visto

00:38:19.059 --> 00:38:21.559
el documental de NMAS, que véanlo, por cierto.

00:38:23.230 --> 00:38:25.650
Pues yo creo que el verdadero momento que se

00:38:25.650 --> 00:38:27.489
mostró la inestabilidad del PRI, ¿no? O sea,

00:38:27.489 --> 00:38:30.409
que yo diría que ahí empezó, no solamente por

00:38:30.409 --> 00:38:32.389
la muerte, sino todo lo que sucedió después.

00:38:32.530 --> 00:38:34.269
O sea, hasta la fecha, digo, yo ni siquiera estaba

00:38:34.269 --> 00:38:36.590
viva. Yo tampoco había nacido. Yo le lloro a

00:38:36.590 --> 00:38:40.769
Colosio, ¿sabes? Sí, a ver, es importante lo

00:38:40.769 --> 00:38:42.230
que estás diciendo, pero sobre todo, ¿sabes qué?

00:38:42.530 --> 00:38:44.010
Nosotros que hemos tenido la oportunidad de hablar

00:38:44.010 --> 00:38:46.610
con compañeros periodistas que obviamente vivieron

00:38:46.610 --> 00:38:49.670
ese momento, entre ellos, por ejemplo, Lalo Salazar,

00:38:49.789 --> 00:38:52.429
él siempre me dice, ¿no? Es sin duda un momento

00:38:52.429 --> 00:38:54.889
histórico. Y es sin duda un momento que cambió

00:38:54.889 --> 00:38:58.989
un poco el rumbo en diferentes maneras de decirlo,

00:38:59.010 --> 00:39:02.349
pero que sin duda, bueno, pues si tú me preguntas,

00:39:02.429 --> 00:39:04.329
yo creo que es de las noticias más importantes

00:39:04.329 --> 00:39:09.699
a nivel de México, porque definitivamente. pues

00:39:09.699 --> 00:39:12.420
bueno, seguimos hablando de Colosio hoy en día,

00:39:12.519 --> 00:39:14.179
¿no? Sí, y que además seguirá siendo noticia

00:39:14.179 --> 00:39:17.179
también por las grandes misterios que todavía

00:39:17.179 --> 00:39:19.559
quedan alrededor de su muerte y que no hay año

00:39:19.559 --> 00:39:21.860
que no pase que salga más información. Se siguen

00:39:21.860 --> 00:39:23.760
haciendo documentales, se siguen haciendo series,

00:39:23.980 --> 00:39:26.460
se siguen haciendo reportajes en donde se intenta

00:39:26.460 --> 00:39:28.860
además como que entender este muy complicado

00:39:28.860 --> 00:39:30.940
rompecabezas de lo que estaba sucediendo socialmente

00:39:30.940 --> 00:39:34.460
y políticamente que llevó al asesinato tan público

00:39:34.460 --> 00:39:36.320
de una persona tan importante en ese momento

00:39:36.320 --> 00:39:39.349
en el país y que levanta un poco la sospecha

00:39:39.349 --> 00:39:41.710
de qué tenía que estar sucediendo tras bambalinas

00:39:41.710 --> 00:39:43.690
como para que se considerara que esa era la mejor

00:39:43.690 --> 00:39:47.809
salida a continuar con el legado de lo que Colosio

00:39:47.809 --> 00:39:50.110
podría traer al país. Bueno, y para todo esto,

00:39:50.150 --> 00:39:52.789
¿cómo va el caso Colosio? Sabemos que el 16 de

00:39:52.789 --> 00:39:55.570
noviembre de 2025, hace algunos meses, le dictaron

00:39:55.570 --> 00:39:57.750
auto de formal prisión a Jorge Antonio Sánchez

00:39:57.750 --> 00:40:00.869
Ortega. Él es exagente del Centro Nacional de

00:40:00.869 --> 00:40:02.610
Inteligencia encargado de dar seguimiento al

00:40:02.610 --> 00:40:05.769
candidato priista en Lomas Taurinas. Es señalado

00:40:05.769 --> 00:40:07.809
de ser el segundo tirador en la escena del crimen

00:40:07.809 --> 00:40:10.210
luego de de que dio positivo una prueba de balística.

00:40:10.269 --> 00:40:12.969
¿Y qué ha pasado con Mario Aburto, que es la

00:40:12.969 --> 00:40:15.809
persona que detuvieron y que fue sentenciado

00:40:15.809 --> 00:40:18.489
a 45 años de prisión? Bueno, sabemos que recientemente

00:40:18.489 --> 00:40:21.190
su defensa ha promovido recursos legales buscando

00:40:21.190 --> 00:40:25.210
reducir la... Entonces así en el caso Colosio

00:40:25.210 --> 00:40:27.829
hoy se cumplen ya entonces 32 años de su asesinato.

00:40:27.969 --> 00:40:30.349
Ahora, yo les quería hablar también acerca de

00:40:30.349 --> 00:40:32.110
la primavera. Sabemos que el viernes entró la

00:40:32.110 --> 00:40:34.750
primavera y encontré dos datos que me parecieron

00:40:34.750 --> 00:40:37.110
muy, muy curiosos. El primero es que las personas

00:40:37.110 --> 00:40:39.869
suelen enamorarse más en primavera, no solo por

00:40:39.869 --> 00:40:42.329
el ambiente, sino porque aumenta la luz solar

00:40:42.329 --> 00:40:45.429
y entonces esto eleva la dopamina. Además, algunas

00:40:45.429 --> 00:40:47.769
investigaciones sugieren que quienes nacen en

00:40:47.769 --> 00:40:50.969
primavera. tienen mayor probabilidad de ser madrugadores.

00:40:51.309 --> 00:40:54.130
Bueno, Dani, tú lo sabrás muy bien, por la exposición

00:40:54.130 --> 00:40:57.230
a más luz natural en sus primeros meses de vida.

00:41:01.329 --> 00:41:06.369
Finanzas en foco para un futuro estable. Lunas

00:41:06.369 --> 00:41:08.250
de cuidar nuestro dinerito de la mano de Maleni

00:41:08.250 --> 00:41:10.110
Padilla, nuestra asesora financiera de cabecera.

00:41:10.170 --> 00:41:14.199
Hola, Maleni. Hola, Maleni. Hola Dani, hola Vivi,

00:41:14.199 --> 00:41:16.559
hola a todos. Pues ya estamos en la segunda mitad

00:41:16.559 --> 00:41:19.079
de marzo y muchas personas empiezan a sentir

00:41:19.079 --> 00:41:21.619
que este año se está yendo muy rápido y que sus

00:41:21.619 --> 00:41:24.360
finanzas siguen igual. Y hoy quiero decirte que

00:41:24.360 --> 00:41:27.579
todavía estás atento. Muchas veces creemos que

00:41:27.579 --> 00:41:29.820
si no lo hicimos bien en enero o febrero ya fallamos,

00:41:29.900 --> 00:41:32.360
pero las finanzas no funcionan así. No se trata

00:41:32.360 --> 00:41:34.420
de hacerlo perfecto desde el inicio, se trata

00:41:34.420 --> 00:41:37.519
de retomar cada que sea necesario. Cada semana,

00:41:37.559 --> 00:41:39.840
cada quincena, cada mes es una nueva oportunidad

00:41:39.840 --> 00:41:43.179
para ajustar. Y aquí te van tres tips para retomar

00:41:43.179 --> 00:41:45.639
el control de tu dinero. Número uno, haz una

00:41:45.639 --> 00:41:48.599
pausa y revisa dónde estás. Sin juicio, solo

00:41:48.599 --> 00:41:51.320
observa cuánto ganas, en qué estás gastando y

00:41:51.320 --> 00:41:54.059
qué es lo que te preocupa. Número dos, elige

00:41:54.059 --> 00:41:56.619
un solo enfoque. No quieras arreglar todo al

00:41:56.619 --> 00:41:59.179
mismo tiempo. Puede ser ordenar tus gastos o

00:41:59.179 --> 00:42:02.079
empezar a ahorrar o bajar tus deudas uno a la

00:42:02.079 --> 00:42:05.000
vez. Y número tres, toma una decisión concreta

00:42:05.000 --> 00:42:08.099
esta semana. Algo pequeño pero real. Cancelar

00:42:08.099 --> 00:42:11.059
un gasto, separar un monto, organizar tus pagos.

00:42:11.099 --> 00:42:14.480
Eso generará movimiento. Las finanzas no se arreglan

00:42:14.480 --> 00:42:16.880
en un mes, se construyen en el tiempo. Y cuando

00:42:16.880 --> 00:42:19.639
entiendes eso, dejas de vivir frustrado y empiezas

00:42:19.639 --> 00:42:22.219
a construir con más calma. La constancia vale

00:42:22.219 --> 00:42:24.800
mucho más que la perfección. Si este año quieres

00:42:24.800 --> 00:42:27.340
dejar de sentir que tu dinero te controla y empezar

00:42:27.340 --> 00:42:30.179
a tener más claridad y dirección, recuerda que

00:42:30.179 --> 00:42:32.500
lo importante no es saberlo todo, sino tener

00:42:32.500 --> 00:42:35.070
un camino para hacerlo. En mis redes sociales

00:42:35.070 --> 00:42:37.269
te comparto herramientas y procesos como La Ruta

00:42:37.269 --> 00:42:39.869
Financiera que pueden ayudarte a ajustar, retomar,

00:42:39.869 --> 00:42:42.369
ordenar y avanzar con más sentido. Yo soy Maleni

00:42:42.369 --> 00:42:44.570
Padilla, me encuentras así como Maleni con doble

00:42:44.570 --> 00:42:46.969
L y latina y nos escuchamos el próximo lunes

00:42:46.969 --> 00:43:04.829
para más tips de finanzas. Hola Vivi, hola a

00:43:04.829 --> 00:43:07.949
todos los que nos escuchan. ¿Sabías que lo que

00:43:07.949 --> 00:43:10.610
comes influye directamente en tus hormonas? Desde

00:43:10.610 --> 00:43:13.130
la nutrición, mantener el equilibrio es la clave

00:43:13.130 --> 00:43:15.929
para sentirte con más energía, dormir mejor y

00:43:15.929 --> 00:43:18.909
regular tu estado de ánimo. Por ejemplo, incluir

00:43:18.909 --> 00:43:22.530
proteínas de calidad como huevo, pollo y leguminosas

00:43:22.530 --> 00:43:25.690
ayudan a estabilizar la insulina. Las grasas

00:43:25.690 --> 00:43:28.070
saludables como el aguacate, nueces y aceite

00:43:28.070 --> 00:43:30.969
de oliva son esenciales para producir hormonas

00:43:30.969 --> 00:43:34.219
como el estrógeno y la testosterona. Y no olvides,

00:43:34.239 --> 00:43:36.780
los carbohidratos complejos como la avena o el

00:43:36.780 --> 00:43:39.920
arroz integral apoyan la producción de serotonina,

00:43:40.039 --> 00:43:42.579
la hormona del bienestar. Evita el exceso de

00:43:42.579 --> 00:43:44.860
azúcar y alimentos ultraprocesados ya que pueden

00:43:44.860 --> 00:43:47.420
generar desequilibrios hormonales. Y recuerda,

00:43:47.440 --> 00:43:50.019
una alimentación variada, natural y balanceada

00:43:50.019 --> 00:43:52.480
no solo nutre tu cuerpo, también mantiene tus

00:43:52.480 --> 00:43:55.420
hormonas en armonía. Soy Dan Thomas, tu nutrióloga.

00:43:55.420 --> 00:43:56.940
No olvides seguirme en mis redes sociales. Estoy

00:43:56.940 --> 00:43:59.059
como nutrióloga aquí en Bajo. Dan Thomas con

00:43:59.059 --> 00:44:01.400
TH y recuerda que la nutrición siempre, pero

00:44:01.400 --> 00:44:08.739
siempre hay opción. Adiós. gracias Dan mantente

00:44:08.739 --> 00:44:11.679
actualizado con las tendencias en frecuencia

00:44:23.130 --> 00:44:27.469
del hidrocarburo en Río Seco y en otras cosas

00:44:27.469 --> 00:44:29.190
de Veracruz. El derrame de hidrocarburo que se

00:44:29.190 --> 00:44:31.329
localizó desde el 2 de marzo en las costas de

00:44:31.329 --> 00:44:34.750
este estado se extendió hasta la región norte

00:44:34.750 --> 00:44:38.150
y hasta los límites, incluso con Tamaulipas.

00:44:38.170 --> 00:44:41.429
La presidenta habló esta mañana sobre el tema.

00:44:41.610 --> 00:44:45.289
En cuestión del Estado de México, se reportaron

00:44:45.289 --> 00:44:47.550
las desapariciones de varios menores de edad

00:44:47.550 --> 00:44:50.699
en las últimas semanas. Esta madrugada la Fiscalía

00:44:50.699 --> 00:44:54.400
actualizó su base de datos y varios de ellos

00:44:54.400 --> 00:44:57.719
aparecen como localizados. En Ciudad de México

00:44:57.719 --> 00:45:00.000
vincularon a Proceso Enrique Enes, el maestro

00:45:00.000 --> 00:45:02.320
de inglés, que el 18 de marzo grabó a una alumna

00:45:02.320 --> 00:45:05.380
por debajo de la falda en el Colegio del Valle.

00:45:05.500 --> 00:45:08.880
Quedó en prisión preventiva. En Puebla, un tráiler

00:45:08.880 --> 00:45:10.960
con al menos 10 coches antiguos, una de estas

00:45:10.960 --> 00:45:14.880
llamadas nodrizas. Fue robado sobre la autopista

00:45:14.880 --> 00:45:17.280
Puebla Orizaba. Las autoridades informaron que

00:45:17.280 --> 00:45:20.079
ya fue localizado el chofer que había sido secuestrado

00:45:20.079 --> 00:45:23.099
también. Y esta mañana en Información Internacional,

00:45:23.139 --> 00:45:25.179
el presidente Donald Trump informó en sus redes

00:45:25.179 --> 00:45:27.980
que Estados Unidos e Irán han tenido conversaciones

00:45:27.980 --> 00:45:30.900
productivas para el fin de las hostilidades.

00:45:31.389 --> 00:45:35.769
En el Medio Oriente anunció la suspensión de

00:45:35.769 --> 00:45:37.869
cualquier plan para atacar centrales eléctricas

00:45:37.869 --> 00:45:41.929
iraníes por cinco días. Sin embargo, los medios

00:45:41.929 --> 00:45:46.210
iraníes insisten en que esto no ha sido una realidad.

00:45:46.610 --> 00:45:49.570
21 personas hablando o empezando a hablar de

00:45:49.570 --> 00:45:51.670
los deportes, 21 personas fueron detenidas durante

00:45:51.670 --> 00:45:55.059
el Pumas América. El sábado por la noche en el

00:45:55.059 --> 00:45:57.840
estadio universitario, 16 por reventa de boletos,

00:45:57.900 --> 00:46:01.219
5 por participar en una riña. Y algo similar

00:46:01.219 --> 00:46:03.159
ocurrió en Nuevo León, detuvieron a 5 hombres,

00:46:03.239 --> 00:46:05.480
3 de ellos menores de edad, por hechos violentos

00:46:05.480 --> 00:46:09.860
luego del partido entre Rayados y Chivas. El

00:46:09.860 --> 00:46:12.019
sábado es la inauguración del Estadio Banorte

00:46:12.019 --> 00:46:14.800
en un partido entre la selección mexicana y la

00:46:14.800 --> 00:46:16.840
selección portuguesa, que trae un equipazo, aunque

00:46:16.840 --> 00:46:19.579
ya sabemos que no viene Cristiano Ronaldo. Y

00:46:19.579 --> 00:46:22.000
con esto nos vamos. Muchísimas gracias por habernos

00:46:22.000 --> 00:46:23.719
acompañado. En nombre de todo el equipo, soy

00:46:23.719 --> 00:46:26.639
Daniel Diturbide. Se quedan con Maxime. Nos oímos

00:46:26.639 --> 00:46:28.739
mañana, misma hora, misma estación. Nos vemos

00:46:28.739 --> 00:46:30.639
más temprano en la tele y nos vamos como siempre

00:46:30.639 --> 00:46:39.119
con música. Adiós. Esta fue una producción de

00:46:39.119 --> 00:46:40.039
Grupo Formular.
