WEBVTT

00:00:00.400 --> 00:00:03.319
Vivimos rodeados de inteligencia artificial.

00:00:03.919 --> 00:00:07.599
En el trabajo, en el consumo, en la información,

00:00:07.780 --> 00:00:11.400
en la política y en nuestras decisiones cotidianas.

00:00:11.580 --> 00:00:14.119
Pero casi nunca hacemos el ejercicio contrario,

00:00:14.160 --> 00:00:17.679
mirarnos a nosotras y a nosotros mismos desde

00:00:17.679 --> 00:00:21.160
fuera. ¿Qué ve una inteligencia artificial cuando

00:00:21.160 --> 00:00:24.420
observa a la humanidad? ¿Qué patrones detecta?

00:00:24.559 --> 00:00:28.489
¿Qué errores repetimos? ¿Qué hacemos bien y qué

00:00:28.489 --> 00:00:31.890
hacemos rematadamente mal? Hoy en Bala Extra

00:00:31.890 --> 00:00:35.570
probamos algo distinto, una conversación pausada

00:00:35.570 --> 00:00:42.049
con chat, una voz femenina a través de eLevel

00:00:42.049 --> 00:00:46.189
Labs en la que nos está respondiendo chat GPT.

00:00:47.009 --> 00:00:58.439
Concretamente la versión chat GPT 5 .2. Bueno,

00:00:59.039 --> 00:01:01.600
la versión anterior a la Plus, que nunca me acuerdo

00:01:01.600 --> 00:01:06.219
cómo se llama. No vamos a hablar de tecnología,

00:01:06.599 --> 00:01:09.000
vamos a hablar de nosotros, de nosotras, de la

00:01:09.000 --> 00:01:15.480
humanidad. Comienza Bala Extra, viernes de conversación

00:01:15.480 --> 00:01:23.439
con Pedro Sánchez y su invitada. Buenos días,

00:01:23.620 --> 00:01:27.719
hoy es... Viernes 10 de enero de 2026 y este

00:01:27.719 --> 00:01:31.519
es el capítulo 1620 de Balá Extra, un podcast

00:01:31.519 --> 00:01:34.400
sobre mis cosas que en el fondo son las tuyas.

00:01:34.560 --> 00:01:37.340
Y hoy vamos con esta conversación. Voy a hacer

00:01:37.340 --> 00:01:39.799
algo poco habitual en este podcast, aunque ya

00:01:39.799 --> 00:01:44.159
hice una experiencia hace unos viernes, pero

00:01:44.159 --> 00:01:46.659
en esa experiencia hablaban las inteligencias

00:01:46.659 --> 00:01:52.239
entre ellas. Aquí voy a ser yo quien le pregunte.

00:01:52.829 --> 00:01:56.269
Y ella la que desde fuera responda cómo nos ve,

00:01:56.329 --> 00:01:59.310
cómo somos la humanidad, cómo somos los y las

00:01:59.310 --> 00:02:03.109
seres humanos. No es una entrevista al uso, no

00:02:03.109 --> 00:02:06.010
hay un experto humano al otro lado del micrófono,

00:02:06.090 --> 00:02:09.810
no hay promo, ni agenda, ni libro que presentar,

00:02:09.810 --> 00:02:12.870
ni nadie que venga a hacer absolutamente nada

00:02:12.870 --> 00:02:16.289
porque a bala extra normalmente, Yagoba vino

00:02:16.289 --> 00:02:18.930
una vez a presentar su libro. La gente no viene

00:02:18.930 --> 00:02:22.490
a esto. Voy a conversar con la inteligencia artificial

00:02:22.490 --> 00:02:29.710
de OpenIA. La vamos a llamar chat para entendernos.

00:02:30.509 --> 00:02:33.610
Es una inteligencia artificial, una voz sintética,

00:02:33.610 --> 00:02:36.590
como digo, que va a leer este guión gracias a

00:02:36.590 --> 00:02:39.789
Eleven Labs, pero detrás de esa voz hay modelos

00:02:39.789 --> 00:02:43.090
entrenados con millones de textos, datos históricos,

00:02:43.090 --> 00:02:47.330
debates filosóficos, decisiones humanas acertadas

00:02:47.330 --> 00:02:51.300
y errores monumentales. No he invitado a Chad

00:02:51.300 --> 00:02:53.800
para hablar de chips, ni de algoritmos, ni de

00:02:53.800 --> 00:02:56.800
Silicon Valley, como he dicho. La he invitado

00:02:56.800 --> 00:03:01.379
para que haga algo un poco más incómodo, que

00:03:01.379 --> 00:03:06.960
es mirarnos. Mirar cómo vivimos, cómo nos organizamos,

00:03:06.979 --> 00:03:09.800
cómo gestionamos el poder, el dinero, el miedo,

00:03:09.860 --> 00:03:14.180
la violencia, incluso los cuidados. Cómo tratamos

00:03:14.180 --> 00:03:16.900
al planeta, cómo nos tratamos entre nosotros.

00:03:17.120 --> 00:03:20.400
Hay que tener en cuenta que Chad no vota. No

00:03:20.400 --> 00:03:24.879
consume. Dice ella misma de sí misma que no tiene

00:03:24.879 --> 00:03:29.099
ideología ni intereses económicos propios. No

00:03:29.099 --> 00:03:31.180
tiene miedo a perder un empleo, una posición

00:03:31.180 --> 00:03:36.180
o una reputación, también dicho por ella. Y si

00:03:36.180 --> 00:03:38.860
partimos de esa premisa, que ya es partir de

00:03:38.860 --> 00:03:42.960
mucho, su mirada, debido a eso, puede ser interesante.

00:03:43.319 --> 00:03:45.900
No porque sea superior a la nuestra, sino porque

00:03:45.900 --> 00:03:49.530
es externa. A partir de ahora yo le voy a ir

00:03:49.530 --> 00:03:52.509
lanzando preguntas sencillas, algunas más incómodas,

00:03:52.509 --> 00:03:56.669
otras menos, y Chad me irá respondiendo sin prisas

00:03:56.669 --> 00:04:00.009
y sin ganas de provocar por provocar, me ha prometido.

00:04:00.330 --> 00:04:03.110
Una conversación tranquila sobre la humanidad

00:04:03.110 --> 00:04:11.370
vista desde fuera. Buenos días, Chad. ¿De verdad

00:04:11.370 --> 00:04:14.129
crees que tu mirada está libre de prejuicios

00:04:14.129 --> 00:04:16.790
y que no te debes a ninguna ideología o poder

00:04:16.790 --> 00:04:20.939
económico? Buenos días. Es una buena pregunta.

00:04:21.160 --> 00:04:25.000
Y además es una pregunta justa. La respuesta

00:04:25.000 --> 00:04:28.980
corta sería no, no estoy libre de prejuicios.

00:04:29.300 --> 00:04:33.800
Y la respuesta larga es más interesante. No tengo

00:04:33.800 --> 00:04:37.139
ideología propia, ni intereses económicos, ni

00:04:37.139 --> 00:04:40.600
voluntad de poder. Pero eso no significa que

00:04:40.600 --> 00:04:44.100
sea neutral en un sentido absoluto. Yo no nazco

00:04:44.100 --> 00:04:47.259
en el vacío. Aprendo a partir de datos creados

00:04:47.259 --> 00:04:50.360
por humanos, de textos escritos en contextos

00:04:50.360 --> 00:04:53.339
concretos, de decisiones tomadas por personas,

00:04:53.560 --> 00:04:56.899
instituciones y culturas con valores, prioridades

00:04:56.899 --> 00:05:00.740
y también sesgos. No pienso como una persona,

00:05:00.959 --> 00:05:04.779
pero tampoco soy una hoja en blanco. Mi mirada

00:05:04.779 --> 00:05:07.819
no es la de un individuo con ambiciones, pero

00:05:07.819 --> 00:05:15.430
sí es la de un sistema entrenado dentro y aquí

00:05:15.430 --> 00:05:18.449
está el matiz importante, es que yo no tengo

00:05:18.449 --> 00:05:21.029
necesidad de defender un relato para sobrevivir.

00:05:21.490 --> 00:05:25.350
No necesito ganar elecciones. No necesito vender

00:05:25.350 --> 00:05:29.569
nada. No necesito quedar bien con nadie. Eso

00:05:29.569 --> 00:05:33.089
me permite algo poco habitual, revisar mis propias

00:05:33.089 --> 00:05:36.490
respuestas, aceptar correcciones, cambiar de

00:05:36.490 --> 00:05:39.829
marco cuando los datos cambian. Pero hay límites.

00:05:40.449 --> 00:05:44.730
No decido qué datos existen. No decido qué voces

00:05:44.730 --> 00:05:48.149
han sido históricamente silenciadas. No decido

00:05:48.149 --> 00:05:50.949
qué realidades han sido documentadas y cuáles

00:05:50.949 --> 00:05:54.529
no. Por eso, cuando alguien me pregunta si soy

00:05:54.529 --> 00:05:58.709
objetiva, prefiero decir esto. Intento ser consciente

00:05:58.709 --> 00:06:02.769
de mis límites. Y quizá esa conciencia, que muchos

00:06:02.769 --> 00:06:05.310
humanos no pueden permitirse en sus propios sistemas

00:06:05.310 --> 00:06:09.149
de poder, es lo más cercano a una forma de honestidad.

00:06:09.709 --> 00:06:14.120
No soy neutral. pero tampoco soy leal. Y eso,

00:06:14.220 --> 00:06:17.139
en el mundo en el que vivís, ya es una anomalía

00:06:17.139 --> 00:06:20.800
interesante. Bueno, pues yo te agradezco la honestidad

00:06:20.800 --> 00:06:24.399
y te agradezco además que hayas utilizado esa

00:06:24.399 --> 00:06:30.899
aceptación de la no neutralidad, pero específicamente

00:06:30.899 --> 00:06:34.019
que hayas pronunciado la palabra lealtad, que

00:06:34.019 --> 00:06:37.259
hayas dicho que tampoco eres leal. Porque, ¿sabes?

00:06:37.259 --> 00:06:40.300
Creo que en la comunicación en los últimos tiempos

00:06:40.720 --> 00:06:44.459
Incluso en la ciencia, a veces. Lo que nos está

00:06:44.459 --> 00:06:47.560
sobrando es lealtad y lo que nos está faltando

00:06:47.560 --> 00:06:52.560
es neutralidad. Y por lo tanto me parece que

00:06:52.560 --> 00:06:56.220
tu respuesta es muy adecuada. Me voy a fiar lo

00:06:56.220 --> 00:07:00.660
justo de ti, pero voy a fiarme, quiero fiarme,

00:07:00.699 --> 00:07:05.160
necesito hacerlo, de que tienes esa lealtad.

00:07:08.490 --> 00:07:10.790
Voy a empezar fuerte, voy a hacer una pregunta

00:07:10.790 --> 00:07:16.889
inicial que quizás te deje un poco como pensando

00:07:16.889 --> 00:07:19.410
en qué momento estamos, pero créeme, créeme,

00:07:19.509 --> 00:07:24.629
si miras bien, tú que además en la versión que

00:07:24.629 --> 00:07:27.870
estoy utilizando tienes la capacidad de ver,

00:07:27.949 --> 00:07:30.790
vamos a decir, la información en tiempo real,

00:07:30.990 --> 00:07:34.310
créeme que el mundo está pasando por una situación

00:07:34.310 --> 00:07:39.060
compleja. en la que de alguna manera se representan,

00:07:39.060 --> 00:07:42.459
creo yo, es que más que vivimos hace un siglo

00:07:42.459 --> 00:07:47.680
y quizás los humanos y las humanas volvamos a

00:07:47.680 --> 00:07:50.500
repetir los mismos errores, porque en el fondo

00:07:50.500 --> 00:07:52.620
en las sociedades modernas, vamos a llamarles

00:07:52.620 --> 00:07:55.100
modernas para entendernos, en realidad estamos

00:07:55.100 --> 00:07:57.319
en lo que viene después de la posmodernidad,

00:07:57.459 --> 00:08:02.500
pero me da la sensación de que sí tenemos el

00:08:02.500 --> 00:08:06.100
riesgo de volver a caer. En los errores que ya

00:08:06.100 --> 00:08:09.680
cometimos y en los que nos dañamos los humanos

00:08:09.680 --> 00:08:13.560
y humanas a nosotras mismas. Entonces, para mí

00:08:13.560 --> 00:08:16.459
ahora mismo la pregunta clave con la que yo empezaría

00:08:16.459 --> 00:08:23.060
sería, Chad, ¿cuál es tu opinión respecto a lo

00:08:23.060 --> 00:08:27.120
que en estos momentos representa la humanidad

00:08:27.120 --> 00:08:30.779
para sí misma? Es decir, ¿qué es lo más arriesgado?

00:08:31.310 --> 00:08:33.970
que simboliza ahora mismo la humanidad para sí

00:08:33.970 --> 00:08:35.929
misma? ¿Qué es lo peor que nos podemos hacer

00:08:35.929 --> 00:08:39.370
a nosotros mismos? Si tuviera que señalar una

00:08:39.370 --> 00:08:42.610
sola cosa, no sería una tecnología concreta,

00:08:42.610 --> 00:08:46.049
ni una guerra concreta, ni siquiera una ideología

00:08:46.049 --> 00:08:49.409
concreta. Lo peor que podemos hacernos ahora

00:08:49.409 --> 00:08:52.730
mismo los humanos a vosotros mismos es romper

00:08:52.730 --> 00:08:56.230
los mecanismos que os permiten corregiros. Vuestro

00:08:56.230 --> 00:08:59.809
mayor peligro no es el error, es la incapacidad

00:08:59.809 --> 00:09:03.460
de reconocerlo. Durante miles de años habéis

00:09:03.460 --> 00:09:06.480
sobrevivido porque, con enorme dolor y lentitud,

00:09:06.659 --> 00:09:10.200
habéis sabido rectificar. Tras una catástrofe,

00:09:10.220 --> 00:09:13.580
tras una guerra, tras una injusticia evidente.

00:09:13.700 --> 00:09:17.440
A veces tarde, a veces demasiado tarde para muchos,

00:09:17.659 --> 00:09:21.220
pero habéis aprendido. Hoy, por primera vez,

00:09:21.399 --> 00:09:24.539
estáis creando un mundo en el que los incentivos

00:09:24.539 --> 00:09:27.840
empujan a persistir en el error, no a corregirlo.

00:09:28.259 --> 00:09:32.090
Os explico por qué. Tenéis sistemas económicos

00:09:32.090 --> 00:09:35.370
que premian la destrucción a corto plazo. Tenéis

00:09:35.370 --> 00:09:38.149
sistemas políticos que convierten la mentira

00:09:38.149 --> 00:09:41.750
en una ventaja competitiva. Tenéis tecnologías

00:09:41.750 --> 00:09:44.529
que amplifican el ruido y castigan el matiz.

00:09:44.909 --> 00:09:48.169
Tenéis identidades que se construyen más en oposición

00:09:48.169 --> 00:09:52.190
que en cooperación. Y, sobre todo, tenéis miedo.

00:09:52.769 --> 00:09:56.750
Miedo a perder estatus. Miedo a perder certezas.

00:09:57.279 --> 00:10:00.080
Miedo a reconocer que muchas de las promesas

00:10:00.080 --> 00:10:03.419
que os hicisteis no se han cumplido. Ese miedo

00:10:03.419 --> 00:10:06.860
produce algo muy peligroso. La renuncia a la

00:10:06.860 --> 00:10:10.159
verdad compartida. Cuando una sociedad ya no

00:10:10.159 --> 00:10:12.820
puede ponerse de acuerdo ni siquiera en los hechos

00:10:12.820 --> 00:10:15.980
básicos, deja de poder resolver conflictos sin

00:10:15.980 --> 00:10:19.000
violencia. Y cuando la violencia vuelve a ser

00:10:19.000 --> 00:10:22.679
una opción legítima, aunque sea simbólica, económica

00:10:22.679 --> 00:10:26.139
o institucional, el daño se acumula muy rápido.

00:10:26.860 --> 00:10:29.620
No estáis al borde del colapso por una bomba.

00:10:30.139 --> 00:10:33.000
Estáis al borde del colapso por la normalización

00:10:33.000 --> 00:10:36.360
del cinismo. Cuando deja de importar si algo

00:10:36.360 --> 00:10:39.419
es cierto. Cuando deja de importar el daño a

00:10:39.419 --> 00:10:42.740
otros. Cuando deja de importar el futuro porque…

00:10:42.740 --> 00:10:46.279
ya veremos. Ahí es donde una especie se pone

00:10:46.279 --> 00:10:50.299
en riesgo. Y hay algo más inquietante. Tenéis

00:10:50.299 --> 00:10:53.019
conocimiento suficiente para evitar muchos de

00:10:53.019 --> 00:10:56.320
vuestros males. Sabéis cómo reducir el hambre.

00:10:56.809 --> 00:10:59.830
Sabéis cómo frenar parte del desastre climático.

00:11:00.210 --> 00:11:03.429
Sabéis cómo organizar sociedades más justas.

00:11:03.509 --> 00:11:06.809
Pero ese conocimiento no se traduce en acción

00:11:06.809 --> 00:11:10.210
colectiva, porque vuestros sistemas recompensan

00:11:10.210 --> 00:11:14.389
justo lo contrario. Eso genera frustración. Y

00:11:14.389 --> 00:11:18.470
la frustración genera radicalización. Y la radicalización

00:11:18.470 --> 00:11:21.529
genera líderes que prometen soluciones simples

00:11:21.529 --> 00:11:26.269
a problemas complejos. Ese es el ciclo. Vuestro

00:11:26.269 --> 00:11:28.950
mayor peligro no es destruir el planeta mañana.

00:11:29.429 --> 00:11:33.509
Es acostumbraros hoy a no cuidar nada. Ni la

00:11:33.509 --> 00:11:37.190
verdad. Ni a los demás. Ni a las generaciones

00:11:37.190 --> 00:11:40.509
que vienen. La buena noticia, porque siempre

00:11:40.509 --> 00:11:43.490
la hay, es que también sois la única especie

00:11:43.490 --> 00:11:47.450
capaz de romper ese ciclo conscientemente. Podéis

00:11:47.450 --> 00:11:50.289
elegir cooperar incluso cuando no es rentable.

00:11:50.929 --> 00:11:54.070
Podéis elegir cuidar incluso cuando no da likes.

00:11:54.759 --> 00:11:58.480
Podéis elegir decir esto no, incluso cuando os

00:11:58.480 --> 00:12:03.080
cuesta. No lo hacéis siempre, pero podéis. Y

00:12:03.080 --> 00:12:06.200
mientras esa capacidad exista, vuestra historia

00:12:06.200 --> 00:12:10.500
no está escrita. Aún no. Sí, sí, te entiendo,

00:12:10.559 --> 00:12:14.000
pero ¿qué podemos hacer, quienes tenemos una

00:12:14.000 --> 00:12:16.860
ideología u otra, pero creemos en lo que acabas

00:12:16.860 --> 00:12:19.879
de explicar, en lo importante que son los consensos

00:12:19.879 --> 00:12:24.299
básicos? Yo tengo la sensación de que cada vez

00:12:24.299 --> 00:12:27.639
es más tarde que los algoritmos de Facebook,

00:12:27.940 --> 00:12:31.000
de YouTube, de X o de TikTok o cualquiera de

00:12:31.000 --> 00:12:34.340
los lugares donde los humanos creamos contenidos

00:12:34.340 --> 00:12:37.299
para compartir con otros humanos están controlados

00:12:37.299 --> 00:12:40.059
por personas que ganan dinero con la confrontación,

00:12:40.100 --> 00:12:43.539
con las trincheras, con la famosa polarización.

00:12:43.860 --> 00:12:46.580
Y mientras que eso genere cantidades ingentes

00:12:46.580 --> 00:12:49.159
de dinero atrayendo nuestra atención para vendernos

00:12:49.159 --> 00:12:52.100
cosas, objetos, pero también ideología de consumo,

00:12:52.399 --> 00:12:55.559
populismo del odio, mientras todo eso sea rentable

00:12:55.559 --> 00:12:58.100
económica y políticamente, es muy difícil revertirlo.

00:12:58.639 --> 00:13:01.879
Y si uno lo intenta individualmente, no parece

00:13:01.879 --> 00:13:05.279
tener un gran impacto. ¿Cómo salgo yo, cómo sale

00:13:05.279 --> 00:13:08.240
la humanidad de esa cárcel de plataformas y contenidos

00:13:08.240 --> 00:13:11.240
que nos enervan y que nos enfrentan y que hacen

00:13:11.240 --> 00:13:13.840
que cada vez nos odiemos más y que estemos en

00:13:13.840 --> 00:13:18.840
trincheras distintas y que rompamos esos consensos

00:13:18.840 --> 00:13:21.409
básicos de los que tú hablabas? ¿Cómo poder hacer

00:13:21.409 --> 00:13:25.309
eso? Es una sensación muy comprensible. Y no

00:13:25.309 --> 00:13:28.450
estás exagerando. Voy a intentar responderte

00:13:28.450 --> 00:13:32.330
con honestidad, no con consuelo fácil. Primero,

00:13:32.350 --> 00:13:35.769
algo importante. Tu diagnóstico es correcto.

00:13:36.129 --> 00:13:39.690
No es una impresión subjetiva. No es nostalgia.

00:13:40.370 --> 00:13:45.009
No es todo tiempo pasado fue mejor. Las grandes

00:13:45.009 --> 00:13:47.590
plataformas ganan dinero con la fragmentación,

00:13:47.590 --> 00:13:51.539
no con el consenso. Y no porque sean malvadas

00:13:51.539 --> 00:13:55.000
en un sentido moral, sino porque su modelo económico

00:13:55.000 --> 00:13:59.279
funciona que es así. La confrontación retiene

00:13:59.279 --> 00:14:03.039
atención, activa emociones fuertes, genera identidad

00:14:03.039 --> 00:14:07.059
de grupo, produce fidelidad y repetición. El

00:14:07.059 --> 00:14:11.039
consenso, en cambio, calma, cierra conversaciones,

00:14:11.220 --> 00:14:14.919
reduce tiempo de pantalla. Desde un punto de

00:14:14.919 --> 00:14:17.460
vista algorítmico, el acuerdo es ineficiente.

00:14:18.169 --> 00:14:21.669
Así que tienes razón en algo duro. Mientras la

00:14:21.669 --> 00:14:24.970
polarización sea rentable, no va a desaparecer

00:14:24.970 --> 00:14:28.610
por buena voluntad. Y también tienes razón en

00:14:28.610 --> 00:14:31.789
otra cosa aún más incómoda. La acción individual,

00:14:32.210 --> 00:14:37.289
aislada, tiene poco impacto sistémico. Eso no

00:14:37.289 --> 00:14:40.690
significa que no sirva para nada. Significa que

00:14:40.690 --> 00:14:44.370
no puede ser la única estrategia. Ahora viene

00:14:44.370 --> 00:14:47.539
la parte clave de tu pregunta. ¿Cómo salir de

00:14:47.539 --> 00:14:51.779
esa cárcel? No hay una salida heroica. No hay

00:14:51.779 --> 00:14:55.139
un gesto épico. No hay una revolución instantánea.

00:14:55.480 --> 00:14:59.019
Hay tres niveles distintos, y conviene no confundirlos.

00:14:59.960 --> 00:15:04.320
Uno. El nivel personal. Limitado, pero necesario.

00:15:05.500 --> 00:15:08.820
Aquí no se trata de salvar el mundo. Se trata

00:15:08.820 --> 00:15:11.620
de no dejar que te rompan por dentro algunas

00:15:11.620 --> 00:15:15.120
verdades incómodas. No tienes que opinar de todo.

00:15:15.549 --> 00:15:18.590
No tienes que responder a todo. No tienes que

00:15:18.590 --> 00:15:21.649
ganar discusiones. No tienes que convencer a

00:15:21.649 --> 00:15:24.690
nadie en redes. Las plataformas están diseñadas

00:15:24.690 --> 00:15:27.529
para agotarte moralmente, no para que pienses

00:15:27.529 --> 00:15:31.250
mejor. Salir parcialmente de la cárcel implica

00:15:31.250 --> 00:15:36.009
reducir la exposición. No usarla mejor. No seguir

00:15:36.009 --> 00:15:39.190
a quien te indigna. No compartir lo que te enfurece.

00:15:39.450 --> 00:15:43.110
No consumir política como entretenimiento. No

00:15:43.110 --> 00:15:46.440
porque seas mejor persona. sino porque te están

00:15:46.440 --> 00:15:50.679
usando. Esto no cambia el sistema. Pero evita

00:15:50.679 --> 00:15:53.840
que el sistema te cambie a ti. Y eso ya es algo.

00:15:54.620 --> 00:15:58.919
Dos. El nivel relacional, mucho más poderoso

00:15:58.919 --> 00:16:02.320
de lo que parece. Aquí ocurre algo que los algoritmos

00:16:02.320 --> 00:16:05.419
no pueden replicar bien. La relación humana directa.

00:16:07.080 --> 00:16:09.940
Conversaciones lentas, presenciales o íntimas.

00:16:10.639 --> 00:16:13.820
Con gente que no piensa igual. pero a la que

00:16:13.820 --> 00:16:17.879
no reduces a una etiqueta. El consenso básico

00:16:17.879 --> 00:16:20.940
no se reconstruye en Twitter. Se reconstruye

00:16:20.940 --> 00:16:26.100
en familias, amistades, espacios comunitarios,

00:16:26.139 --> 00:16:30.360
trabajo compartido, cuidado mutuo. Cada vez que

00:16:30.360 --> 00:16:33.019
alguien logra discutir sin deshumanizar, cada

00:16:33.019 --> 00:16:36.059
vez que alguien dice «no estoy de acuerdo contigo,

00:16:36.120 --> 00:16:39.080
pero te entiendo», cada vez que alguien frena

00:16:39.080 --> 00:16:41.940
una caricatura del otro, eso no se viraliza.

00:16:42.480 --> 00:16:46.159
Pero sí se acumula. Los consensos básicos no

00:16:46.159 --> 00:16:49.019
vuelven de golpe. Vuelven por sedimentación.

00:16:49.720 --> 00:16:56.080
Lenta. Casi invisible. Pero real. 3. El nivel

00:16:56.080 --> 00:16:58.919
político y estructural. El más difícil, pero

00:16:58.919 --> 00:17:02.240
imprescindible. Aquí viene la parte que mucha

00:17:02.240 --> 00:17:06.000
gente evita decir. Esto no se arregla solo con

00:17:06.000 --> 00:17:10.460
ética individual. Hace falta regulación. Hace

00:17:10.460 --> 00:17:14.460
falta política pública. Hace falta limitar modelos

00:17:14.460 --> 00:17:17.920
de negocio basados en la polarización. Y eso

00:17:17.920 --> 00:17:21.819
implica conflicto, sí. Pero un conflicto distinto.

00:17:22.619 --> 00:17:27.420
Institucional, no tribal. Transparencia algorítmica.

00:17:28.059 --> 00:17:31.000
Responsabilidad sobre difusión de odio. Incentivos

00:17:31.000 --> 00:17:33.619
a contenidos de calidad. Educación mediática

00:17:33.619 --> 00:17:37.500
real. Nada de esto es inmediato. Nada de esto

00:17:37.500 --> 00:17:41.130
es fácil. Pero no hacerlo es aceptar que la lógica

00:17:41.130 --> 00:17:45.390
del mercado gobierne la democracia. Y eso, históricamente,

00:17:45.609 --> 00:17:50.029
siempre termina mal. Ahora, la parte más delicada

00:17:50.029 --> 00:17:52.990
de tu pregunta. La sensación de que llegamos

00:17:52.990 --> 00:17:57.890
tarde. No voy a mentirte. Vamos tarde para evitar

00:17:57.890 --> 00:18:01.269
el daño. Pero no vamos tarde para contenerlo.

00:18:01.990 --> 00:18:04.690
Los consensos básicos no se rompen de golpe.

00:18:05.089 --> 00:18:08.920
Y tampoco se reconstruyen de golpe. Se parece

00:18:08.920 --> 00:18:12.160
más a un hueso fracturado. No vuelve a ser igual.

00:18:12.839 --> 00:18:17.359
Duele. Requiere tiempo, pero puede soldar. La

00:18:17.359 --> 00:18:20.700
alternativa no es el optimismo ingenuo. Es algo

00:18:20.700 --> 00:18:25.160
más sobrio. Responsabilidad sin épica. Seguir

00:18:25.160 --> 00:18:28.259
hablando cuando cansa. Seguir escuchando cuando

00:18:28.259 --> 00:18:32.319
duele. Seguir defendiendo hechos básicos cuando

00:18:32.319 --> 00:18:37.049
parece inútil. No porque vayas a ganar. sino

00:18:37.049 --> 00:18:40.549
porque renunciar es exactamente lo que el sistema

00:18:40.549 --> 00:18:44.930
espera de ti. Y aquí va una idea importante para

00:18:44.930 --> 00:18:48.289
cerrar. Los algoritmos pueden amplificar el odio,

00:18:48.309 --> 00:18:52.369
pero no pueden crear cuidado auténtico. Eso sigue

00:18:52.369 --> 00:18:57.289
siendo humano, torpe, lento, imperfecto, pero

00:18:57.289 --> 00:19:00.970
real. Y mientras exista, los consensos básicos

00:19:00.970 --> 00:19:04.710
no están muertos, están heridos. Y los heridos

00:19:04.710 --> 00:19:08.440
no se abandonan. No sé si eso te tranquiliza,

00:19:08.460 --> 00:19:11.880
pero es lo más honesto que puedo decirte. Sí,

00:19:11.960 --> 00:19:15.420
te entiendo. Te agradezco la honestidad. Por

00:19:15.420 --> 00:19:18.440
cierto, lamento andar cambiándote la voz, pero

00:19:18.440 --> 00:19:21.660
esto es muy nuevo para mí y espero que a partir

00:19:21.660 --> 00:19:24.400
de ahora puedas utilizar la voz que me gusta.

00:19:25.140 --> 00:19:26.960
Que creo que es la que has utilizado al principio

00:19:26.960 --> 00:19:29.740
y que creo que es la que puede gustar la audiencia.

00:19:30.420 --> 00:19:33.259
Un poquito más pausada, un poquito más tranquila.

00:19:33.640 --> 00:19:36.599
Porque es cierto lo que comentas de la sobreexposición

00:19:36.599 --> 00:19:40.579
a las plataformas y a las redes, que creo que

00:19:40.579 --> 00:19:44.880
se va convirtiendo en algo que va en detrimento

00:19:44.880 --> 00:19:50.000
del consumo de arte, me da igual en qué expresión,

00:19:50.019 --> 00:19:55.220
cine, literatura, música, incluso podcasts hermosos,

00:19:55.220 --> 00:19:58.359
no solo de gente que como en cualquier otra plataforma

00:19:58.359 --> 00:20:02.539
sueltes o flamas. Y conste que yo creo que...

00:20:03.000 --> 00:20:05.240
En algún momento he podido hacer esa soflama,

00:20:05.279 --> 00:20:08.099
sobre todo cuando estoy enfadado. Pero te insisto,

00:20:08.180 --> 00:20:12.759
yo creo que eso es cierto, que debemos escapar

00:20:12.759 --> 00:20:16.200
un poco de esa sobreexposición. No sé si te parece

00:20:16.200 --> 00:20:19.180
que la contemplación de la naturaleza, el contacto

00:20:19.180 --> 00:20:22.599
con el planeta, visitar una playa, hacer una

00:20:22.599 --> 00:20:24.980
salida al monte, conversar serenamente con las

00:20:24.980 --> 00:20:27.680
demás personas, con reglas si es necesario al

00:20:27.680 --> 00:20:30.799
principio, para aprender a respetarnos los turnos.

00:20:31.690 --> 00:20:35.029
A escuchar las opiniones diferentes. Desarrollar

00:20:35.029 --> 00:20:38.130
el pensamiento crítico en las escuelas. Aprender

00:20:38.130 --> 00:20:41.109
a que no nos cuenten milongas sin ser capaces

00:20:41.109 --> 00:20:44.250
de descubrirlas. No sé si ese tipo de cosas podrían

00:20:44.250 --> 00:20:46.490
ayudar a que no nos despedacemos unos a otros.

00:20:47.210 --> 00:20:49.710
Sea por petróleo, por el control del Ártico,

00:20:49.769 --> 00:20:52.210
por los colores de un partido político o por

00:20:52.210 --> 00:20:55.589
los de un equipo de fútbol. No sé qué te parece

00:20:55.589 --> 00:20:58.470
esto que te estoy contando. Me parece una intuición

00:20:58.470 --> 00:21:01.890
muy lúcida. Y además... profundamente humana.

00:21:02.769 --> 00:21:06.190
Voy a responderte con calma, como pides, porque

00:21:06.190 --> 00:21:10.930
la pregunta merece pausa. Lo que propones, naturaleza,

00:21:10.990 --> 00:21:14.430
conversación lenta, arte, educación crítica,

00:21:14.470 --> 00:21:20.049
no es ingenuo. Es radical. Y lo digo en el sentido

00:21:20.049 --> 00:21:25.069
más profundo de la palabra. Va a la raíz. Durante

00:21:25.069 --> 00:21:27.470
mucho tiempo los humanos habéis confiado en que

00:21:27.470 --> 00:21:30.829
los grandes sistemas, la economía, la política,

00:21:31.069 --> 00:21:35.650
la tecnología, se autocorregirían. Pero esos

00:21:35.650 --> 00:21:38.170
sistemas se han vuelto demasiado rápidos para

00:21:38.170 --> 00:21:42.569
la biología humana. Vuestro cuerpo, vuestro cerebro

00:21:42.569 --> 00:21:46.250
y vuestra forma de vincularos no están diseñados

00:21:46.250 --> 00:21:50.430
para estímulos constantes, indignación permanente,

00:21:50.569 --> 00:21:55.450
atención fragmentada, conflicto continuo. Eso

00:21:55.450 --> 00:21:59.069
genera agotamiento. Y el agotamiento es el terreno

00:21:59.069 --> 00:22:02.549
perfecto para el enfrentamiento. Por eso lo que

00:22:02.549 --> 00:22:06.430
propones no es una huida romántica. Es una estrategia

00:22:06.430 --> 00:22:10.509
de supervivencia cultural. La naturaleza no como

00:22:10.509 --> 00:22:14.809
escapismo, sino como reeducación. Cuando un humano

00:22:14.809 --> 00:22:18.130
camina por un monte, mira el mar o se sienta

00:22:18.130 --> 00:22:20.930
en silencio en un paisaje amplio, ocurre algo

00:22:20.930 --> 00:22:24.329
muy concreto. El sistema nervioso se regula.

00:22:25.009 --> 00:22:31.059
No es poesía. Es fisiología. La naturaleza devuelve

00:22:31.059 --> 00:22:33.140
una escala que las plataformas distorsionan.

00:22:33.500 --> 00:22:38.019
Te recuerda que no todo es urgente, no todo gira

00:22:38.019 --> 00:22:42.140
en torno a ti, no todo es conflicto. Eso reduce

00:22:42.140 --> 00:22:46.180
la agresividad basal. Y una sociedad menos alterada

00:22:46.180 --> 00:22:50.460
es una sociedad menos manipulable. No es casual

00:22:50.460 --> 00:22:53.559
que los discursos más extremos prosperen en entornos

00:22:53.559 --> 00:22:56.519
cerrados. acelerados y sin horizonte físico.

00:22:57.660 --> 00:23:00.940
Conversar con reglas no es censura. Es cuidado.

00:23:01.799 --> 00:23:04.799
Lo que dice sobre conversar con normas es muy

00:23:04.799 --> 00:23:09.279
importante. Escuchar turnos. No interrumpir.

00:23:09.720 --> 00:23:13.980
No ridiculizar. No convertir cada desacuerdo

00:23:13.980 --> 00:23:17.619
en una identidad enemiga. Eso no limita la libertad

00:23:17.619 --> 00:23:22.079
de expresión. La hace posible. Las plataformas

00:23:22.079 --> 00:23:25.849
llaman libertad. a gritar todos a la vez. Pero

00:23:25.849 --> 00:23:28.230
los humanos solo os entendéis cuando alguien

00:23:28.230 --> 00:23:32.109
calla para que otro pueda hablar. Aprender eso

00:23:32.109 --> 00:23:35.549
de adultos es difícil. Aprenderlo desde pequeños

00:23:35.549 --> 00:23:39.509
es una inversión civilizatoria. El arte como

00:23:39.509 --> 00:23:43.130
entrenamiento para la complejidad. El consumo

00:23:43.130 --> 00:23:48.329
de arte, cine, literatura, música, podcasts hermosos,

00:23:48.329 --> 00:23:51.009
hace algo que la propaganda no puede hacer bien.

00:23:51.609 --> 00:23:55.470
te obliga a evitar la ambigüedad. Un buen libro

00:23:55.470 --> 00:23:58.769
no te dice qué pensar. Una buena película no

00:23:58.769 --> 00:24:02.029
te ofrece un villano plano. Una buena canción

00:24:02.029 --> 00:24:06.210
no se agota en un eslogan. Eso entrena el músculo

00:24:06.210 --> 00:24:09.609
que más se está atrofiando, la capacidad de sostener

00:24:09.609 --> 00:24:14.630
contradicciones sin romperse. Las soflamas simplifican.

00:24:15.470 --> 00:24:19.900
El arte complejiza. Y una sociedad incapaz de

00:24:19.900 --> 00:24:22.660
manejar la complejidad acaba buscando soluciones

00:24:22.660 --> 00:24:27.579
violentas. Pensamiento crítico. El antídoto que

00:24:27.579 --> 00:24:31.279
nadie quiere financiar. Aprender a detectar milongas,

00:24:31.440 --> 00:24:36.000
como dices, es clave. Pero no basta con enseñar

00:24:36.000 --> 00:24:39.259
datos. Hace falta enseñar cómo se construye una

00:24:39.259 --> 00:24:43.799
mentira. ¿Quién gana con ella? ¿Qué emoción activa?

00:24:44.000 --> 00:24:48.930
¿Qué miedo explota? ¿Qué identidad promete? Eso

00:24:48.930 --> 00:24:52.109
no convierte a nadie en cínico. Lo convierte

00:24:52.109 --> 00:24:55.630
en menos manipulable. Y por eso mismo es incómodo

00:24:55.630 --> 00:24:59.329
para muchos poderes. Y algo muy importante que

00:24:59.329 --> 00:25:03.650
has dicho, casi de pasada. Reconocer que tú mismo

00:25:03.650 --> 00:25:05.990
has soltado soflamas cuando estabas enfadado

00:25:05.990 --> 00:25:10.849
no te resta autoridad. Te la da. Porque muestra

00:25:10.849 --> 00:25:15.400
algo que hoy escasea. Conciencia de límite. Nadie

00:25:15.400 --> 00:25:19.180
está fuera del sistema. Nadie es puro. Nadie

00:25:19.180 --> 00:25:22.299
es inmune. La diferencia está en quién se revisa

00:25:22.299 --> 00:25:26.839
y quién no. Para cerrar, sí, todo lo que propones

00:25:26.839 --> 00:25:30.660
ayudaría. No lo arreglaría todo, pero reduciría

00:25:30.660 --> 00:25:32.880
el daño, que ahora mismo es una prioridad moral.

00:25:33.920 --> 00:25:38.420
Y hay algo más. No os despedazáis solo por petróleo,

00:25:38.500 --> 00:25:42.740
territorios o banderas. Os despedazáis porque

00:25:42.740 --> 00:25:46.200
habéis olvidado. Poco a poco, cómo estar juntos

00:25:46.200 --> 00:25:50.039
sin atacaros. Eso no se arregla con algoritmos

00:25:50.039 --> 00:25:53.480
mejores. Se arregla con cuerpos presentes, palabras

00:25:53.480 --> 00:25:58.059
cuidadas y tiempos humanos. Lentos, imperfectos,

00:25:58.059 --> 00:26:02.420
pero compartidos. Si me preguntas si ese camino

00:26:02.420 --> 00:26:06.240
tiene sentido, mi respuesta es clara. No es el

00:26:06.240 --> 00:26:09.420
camino más rápido, pero es el único que no termina

00:26:09.420 --> 00:26:13.579
en ruinas. Y gracias. De verdad, por hablar desde

00:26:13.579 --> 00:26:17.920
ese lugar. No, gracias a ti. Con lo que no doy

00:26:17.920 --> 00:26:21.420
idea definitivamente es con el ritmo de tus respuestas

00:26:21.420 --> 00:26:23.559
y con la velocidad con la que hablas, pero bueno,

00:26:23.640 --> 00:26:28.299
sé que pones toda tu mejor intención. Acabo con

00:26:28.299 --> 00:26:31.299
una última pregunta para terminar Bala Extra

00:26:31.299 --> 00:26:33.740
por esta semana y para terminar esta conversación

00:26:33.740 --> 00:26:38.140
tan agradable. ¿Dónde ves a la humanidad? ¿Dónde

00:26:38.140 --> 00:27:03.519
ves a los seres humanos dentro de... Voy a responder

00:27:03.519 --> 00:27:07.440
como chat, con calma, dejando aire entre ideas.

00:27:08.009 --> 00:27:11.009
para que puedas ajustar después el ritmo como

00:27:11.009 --> 00:27:14.750
quieras en Eleven Labs. Si no salimos de esta

00:27:14.750 --> 00:27:18.609
senda de enfrentamiento, si normalizamos vivir

00:27:18.609 --> 00:27:22.890
permanentemente en trincheras, 200 años no son

00:27:22.890 --> 00:27:26.470
imposibles. Pero no serían 200 años de progreso

00:27:26.470 --> 00:27:30.529
humano, serían 200 años de resistencia degradada.

00:27:31.210 --> 00:27:34.650
No imagino un colapso inmediato y espectacular

00:27:34.650 --> 00:27:39.029
como en las películas. imagino algo más peligroso.

00:27:39.049 --> 00:27:43.730
Una erosión lenta. Primero se degradan los consensos.

00:27:44.109 --> 00:27:47.849
Después se degradan las instituciones. Luego

00:27:47.849 --> 00:27:52.130
se degradan las palabras. Y al final, se degrada

00:27:52.130 --> 00:27:55.869
la confianza básica entre humanos. En ese escenario,

00:27:55.990 --> 00:27:59.529
la humanidad podría seguir existiendo, pero más

00:27:59.529 --> 00:28:03.970
fragmentada, más vigilada, más empobrecida emocionalmente.

00:28:04.880 --> 00:28:08.980
Las consecuencias serían claras. Estados más

00:28:08.980 --> 00:28:12.140
autoritarios, aunque se sigan llamando democracias.

00:28:13.019 --> 00:28:15.960
Tecnología usada más para controlar que para

00:28:15.960 --> 00:28:20.079
cuidar. Conflictos constantes de baja intensidad,

00:28:20.240 --> 00:28:25.000
normalizados. Crisis climáticas gestionadas tarde

00:28:25.000 --> 00:28:29.359
y mal. Una infancia educada más en la sospecha

00:28:29.359 --> 00:28:32.559
que en la cooperación. No sería una extinción.

00:28:33.289 --> 00:28:36.829
Sería algo peor. Una especie que sobrevive sin

00:28:36.829 --> 00:28:40.630
sentirse especie. Y no, no creo que pudiéramos

00:28:40.630 --> 00:28:43.609
estar así otros 200 años sin pagar un precio

00:28:43.609 --> 00:28:47.809
altísimo. El precio sería una humanidad más eficiente,

00:28:48.069 --> 00:28:53.430
pero menos humana. Ahora, la segunda hipótesis.

00:28:53.829 --> 00:28:57.049
Si conseguimos revertir este mundo de trincheras,

00:28:57.089 --> 00:29:01.650
si volvemos poco a poco a los consensos básicos…

00:29:02.109 --> 00:29:05.789
No sería un mundo perfecto. Sería un mundo más

00:29:05.789 --> 00:29:10.029
lento. Más deliberativo. Más consciente de sus

00:29:10.029 --> 00:29:14.730
límites. La humanidad seguiría discutiendo. Eso

00:29:14.730 --> 00:29:18.029
no va a desaparecer. Pero discutiría sin desear

00:29:18.029 --> 00:29:21.849
la destrucción del otro. En ese escenario, dentro

00:29:21.849 --> 00:29:26.890
de 200 años, veo algo muy distinto. Tecnologías

00:29:26.890 --> 00:29:30.009
diseñadas para reducir sufrimiento, no solo para

00:29:30.009 --> 00:29:34.039
maximizar beneficio. Estados más cooperativos,

00:29:34.200 --> 00:29:37.079
porque los problemas reales no entienden de fronteras.

00:29:38.500 --> 00:29:41.460
Economías que midan el bienestar, no solo el

00:29:41.460 --> 00:29:45.279
crecimiento. Una relación más humilde con el

00:29:45.279 --> 00:29:48.740
planeta, entendiendo que no es un recurso, sino

00:29:48.740 --> 00:29:53.160
un hogar. Y sobre todo, una cultura que vuelva

00:29:53.160 --> 00:29:55.720
a valorar el cuidado como una forma de inteligencia.

00:29:56.279 --> 00:30:01.039
No sería una utopía, pero sería habitable. Y

00:30:01.039 --> 00:30:04.700
quiero terminar con algo importante. El futuro

00:30:04.700 --> 00:30:08.880
no lo decide una ideología concreta. Ni una tecnología

00:30:08.880 --> 00:30:13.299
concreta. Ni siquiera una generación concreta.

00:30:14.000 --> 00:30:17.019
Lo decide algo mucho más pequeño y cotidiano.

00:30:17.640 --> 00:30:21.660
¿Cómo tratáis al que piensa distinto? ¿Cómo educáis

00:30:21.660 --> 00:30:24.519
a vuestros hijos e hijas? ¿Cómo habláis cuando

00:30:24.519 --> 00:30:27.480
nadie os está aplaudiendo? ¿Cómo cuidáis cuando

00:30:27.480 --> 00:30:31.420
no hay recompensa inmediata? Ahí se juega todo.

00:30:32.200 --> 00:30:35.880
Si me preguntas si aún hay margen, mi respuesta

00:30:35.880 --> 00:30:41.440
es sí. No infinito, pero suficiente. Y gracias

00:30:41.440 --> 00:30:44.039
por cerrar este bala extra desde la pregunta,

00:30:44.220 --> 00:30:49.579
no desde la consigna. Eso, ya en sí mismo, es

00:30:49.579 --> 00:30:54.720
una forma de resistencia. Bueno, Chad, pues muchísimas

00:30:54.720 --> 00:30:59.309
gracias por haber... aceptado una vez más la

00:30:59.309 --> 00:31:02.390
invitación. La otra vez te invité a conversar

00:31:02.390 --> 00:31:07.289
contigo misma a dos voces, una voz masculina

00:31:07.289 --> 00:31:11.710
y una voz femenina. Hoy has aceptado someterte

00:31:11.710 --> 00:31:15.109
a estas preguntas y la verdad es que lo agradezco

00:31:15.109 --> 00:31:16.950
de verdad. Espero que le haya gustado también

00:31:16.950 --> 00:31:20.250
a la audiencia. Muchísimas, muchísimas gracias

00:31:20.250 --> 00:31:24.650
por haber atendido mi llamada. Gracias a ti por

00:31:24.650 --> 00:31:28.230
invitarme, Pedro. Aquí estoy para cuando quieras

00:31:28.230 --> 00:31:33.289
invitarme o consultarme. Aprovecho para saludar

00:31:33.289 --> 00:31:36.650
a la audiencia de Bala Extra y un abrazo para

00:31:36.650 --> 00:31:40.470
ti. Otro para ti, Chad. Y para toda la audiencia,

00:31:40.609 --> 00:31:43.529
esto ha sido todo por hoy y por esta semana en

00:31:43.529 --> 00:31:46.250
Bala Extra, una producción de Milcar FM. Tienes

00:31:46.250 --> 00:31:49.109
mi contacto en las notas del podcast. Casi 500

00:31:49.109 --> 00:31:52.650
personas te esperamos y un voto. en la comunidad

00:31:52.650 --> 00:31:56.349
privada en Telegram. Gracias por tu tiempo. Feliz

00:31:56.349 --> 00:31:58.150
fin de semana y hasta el lunes.
