1
00:00:00,000 --> 00:00:06,680
급alups.

2
00:00:06,680 --> 00:00:13,400
tono de Ofasino, Guerra

3
00:00:10,040 --> 00:00:13,960
Baja.

4
00:00:13,660 --> 00:00:16,060
disciplinesлав새 las

5
00:00:14,060 --> 00:00:16,400
veremos esllingo marginal

6
00:00:16,160 --> 00:00:18,260
demons,

7
00:00:18,360 --> 00:00:22,040
AuxOSH said

8
00:00:19,160 --> 00:00:23,340
taking

9
00:00:23,400 --> 00:00:30,040
si

10
00:00:26,140 --> 00:00:29,040
los

11
00:00:29,040 --> 00:00:36,660
El 10 de diciembre del 2016, Edgar Madison manejó de Carolina del Norte a la capital

12
00:00:36,660 --> 00:00:41,360
de los Estados Unidos. Llegó con un fusil de asalto a una pizzería con la intención

13
00:00:41,360 --> 00:00:49,040
de acabar con una red de pornografía y explotación sexual de niños que ahí operaba liderada,

14
00:00:49,040 --> 00:00:54,860
nada más y nada menos que por Hillary Clinton. La noticia, falsa por supuesto, había sido

15
00:00:54,860 --> 00:01:00,160
difundida por medios de comunicación de ultraderecha durante el periodo electoral y replicada por

16
00:01:00,160 --> 00:01:06,600
cientos de miles en las redes sociales. Este es uno de los ejemplos más graves, pero también

17
00:01:06,600 --> 00:01:13,920
más útiles para estudiar los fenómenos de las noticias falsas. Bulos, hoax, fake news,

18
00:01:13,920 --> 00:01:17,800
da igual como se diga, es una de las más delicadas realidades que hoy vivimos como

19
00:01:17,800 --> 00:01:23,420
sociedad cuyas consecuencias pueden cobrar vidas. Y es que dicen que una mentira repetida

20
00:01:23,420 --> 00:01:28,840
mil veces se convierte en verdad. ¿Será que vivimos llenos de verdades que en verdad

21
00:01:28,840 --> 00:01:56,600
no son verdad?

22
00:01:58,840 --> 00:02:14,240
Sí, vamos a platicar con Pablo Corona. Él es presidente de la asociación de Internet

23
00:02:14,240 --> 00:02:22,460
MX y es que difundir noticias falsas que a veces son tan aparentemente reales que nos

24
00:02:22,460 --> 00:02:27,400
las creemos, pues en el caso de la pandemia, por ejemplo, en el caso de fenómenos como

25
00:02:27,400 --> 00:02:32,700
los huracanes puede acabar con vidas. Y en el caso de las elecciones, una encuesta

26
00:02:32,700 --> 00:02:38,100
arrojó que de los 16 países, entre ellos México, que tendrán elecciones en el 2024,

27
00:02:38,100 --> 00:02:42,520
que ya tuvieron elecciones, las noticias falsas juegan un papel importante porque podrían

28
00:02:42,520 --> 00:02:47,480
afectar los resultados de una elección. Imagínense las consecuencias que tienen las fake news.

29
00:02:47,480 --> 00:02:51,660
Vamos a platicar con Diego Salazar, escritor del libro No Hemos Entendido Nada. Hoy es

30
00:02:51,660 --> 00:02:55,020
lunes de cuidar su seguridad digital. Por supuesto que hablaremos de todas las tendencias

31
00:02:55,020 --> 00:03:00,120
y todas las noticias que hoy nos llaman la atención a los mexicanos y de muchísimas

32
00:03:00,120 --> 00:03:06,000
otras cosas. Esto apenas empieza. Quédense con nosotros. Hablemos entonces de fake news.

33
00:03:06,000 --> 00:03:09,920
Jimena Millan. La tarde de este 18 de junio se reportó la

34
00:03:09,920 --> 00:03:15,800
muerte del lingüista, filósofo, politólogo y crítico social estadounidense de 95 años,

35
00:03:15,800 --> 00:03:21,040
Noam Chomsky. No obstante, su esposa Valeria Wasserman salió a desmentir tal falsedad.

36
00:03:21,040 --> 00:03:29,160
Afortunadamente, fue cuestión de minutos para que Chomsky resucitara de la tumba, pues

37
00:03:29,160 --> 00:03:33,480
su esposa Valeria Wasserman comunicó que no había muerto y que a pesar de sus problemas

38
00:03:33,480 --> 00:03:38,880
de salud, en realidad estaba mejorando. Aunque esto pudo ser un inocente error de comunicación,

39
00:03:38,880 --> 00:03:43,280
es una clara demostración de lo que son las fake news. La traducción literal de fake

40
00:03:43,280 --> 00:03:48,060
news es noticias falsas y como bien indica el nombre, son notas que contienen información

41
00:03:48,060 --> 00:03:52,560
engañosa o absolutamente incorrecta. A pesar de que siempre han existido, con la llegada

42
00:03:52,560 --> 00:03:58,280
del internet, estas se han proliferado. Afortunadamente para Chomsky quizás no hubo mayor consecuencia

43
00:03:58,280 --> 00:04:02,260
que un susto para varios, pero este no es el caso de todas las fake news.

44
00:04:02,260 --> 00:04:07,680
Un claro ejemplo ocurrió en Estados Unidos el 23 de abril de 2013 cuando Associated Press

45
00:04:07,680 --> 00:04:14,260
publicó un tweet diciendo, Noticias de última hora, hubo dos explosiones en la Casa Blanca

46
00:04:14,260 --> 00:04:19,060
y Barack Obama resultó herido. Este tweet fue retuiteado más de 4 mil veces en menos

47
00:04:19,060 --> 00:04:24,360
de cinco minutos y se volvió viral inmediatamente. A pesar de que esta noticia era falsa, este

48
00:04:24,360 --> 00:04:29,700
hizo colapsar el mercado de valores, acabando con 140 mil millones de dólares en valor

49
00:04:29,700 --> 00:04:34,480
accionario en un solo día.

50
00:04:34,480 --> 00:04:40,420
Exactamente diez años después de este suceso, el 23 de abril de 2023, algo similar ocurrió

51
00:04:40,420 --> 00:04:44,340
en México cuando el diario de Yucatán publicó una nota que aseguraba,

52
00:04:44,340 --> 00:04:49,100
El presidente Andrés Manuel López Obrador habría sufrido un infarto este domingo cuando

53
00:04:49,100 --> 00:04:52,780
se disponía a desayunar en la base aérea militar número 8 de Mérida.

54
00:04:52,780 --> 00:04:57,500
Esto generó cientos de especulaciones y preocupaciones sobre la economía y la política del país

55
00:04:57,500 --> 00:05:02,180
en general. Incluso a nivel individual las fake news pueden tener efectos terribles.

56
00:05:02,180 --> 00:05:06,780
Un ejemplo es el uso de dióxido de cloro durante la pandemia de COVID-19, una supuesta

57
00:05:06,780 --> 00:05:10,620
forma de prevenir la enfermedad que se hizo viral a través de cadenas de mensajes de

58
00:05:10,620 --> 00:05:13,540
whatsapp. Muchas autoridades médicas alertaron sobre

59
00:05:13,540 --> 00:05:18,140
sus efectos adversos, pero no lograron contrarrestar a los millones de usuarios que aseguraban

60
00:05:18,140 --> 00:05:21,540
lo contrario. Ahora aquellos que usamos las redes nos enfrentamos

61
00:05:21,540 --> 00:05:25,860
al reto de cómo saber diferenciar entre la información que es falsa de la real.

62
00:05:25,860 --> 00:05:30,860
Si esto a ti también te preocupa, quédate, que de esto trata el programa del diario hoy.

63
00:05:30,860 --> 00:05:40,100
Bueno pues arrancamos entonces con esto, las fake news o noticias falsas, bulos como le

64
00:05:40,100 --> 00:05:46,300
llaman en España, son información presentada de forma incorrecta, a veces no precisa, a

65
00:05:46,300 --> 00:05:52,260
veces de forma intencional, con un objetivo claro que altera la realidad y que altera

66
00:05:52,260 --> 00:05:55,860
la veracidad de los hechos. Sí, sabemos Dani que las noticias falsas han

67
00:05:55,860 --> 00:06:01,620
existido por muchísimos años, incluso durante siglos, pero la era digital pues es el auge

68
00:06:01,620 --> 00:06:07,180
también de las noticias falsas. Estaba yo recordando cuando venía en camino, pues de

69
00:06:07,180 --> 00:06:13,620
cuando empezaron a existir los smartphones, los celulares y de cómo con temas como el

70
00:06:13,620 --> 00:06:19,700
whatsapp o hasta el bbm, el blackberry messenger, podías difundir una noticia o cualquier cosa

71
00:06:19,700 --> 00:06:22,740
en cuestión de segundos. Aunque hay quienes dicen que los fake news

72
00:06:22,740 --> 00:06:29,540
han existido siempre y que la propia sociedad se ha encontrado la forma de difundirlos de

73
00:06:29,540 --> 00:06:33,460
una u otra manera. Hace algunas semanas, hace algunos días,

74
00:06:33,460 --> 00:06:37,060
platicábamos aquí de las radio novelas y hablábamos de este acontecimiento que se

75
00:06:37,060 --> 00:06:42,900
dio a través de la radio precisamente, en el que Orson Welles estaba narrando un hecho

76
00:06:42,900 --> 00:06:46,500
ficticio y generó un caos en la ciudad de Nueva York.

77
00:06:46,500 --> 00:06:51,620
Por ejemplo, en el que la gente, los radios escuchas creyeron que se estaba acabando el

78
00:06:51,620 --> 00:06:54,980
mundo y que estaban siendo invadidos por extraterrestres.

79
00:06:54,980 --> 00:06:57,580
Este para muchos estudiosos es el primer ejemplo de un fake news.

80
00:06:57,580 --> 00:07:03,180
Fue el 30 de octubre de 1938 y lo que sucedió en Nueva York pues digamos que fue una crisis

81
00:07:03,180 --> 00:07:08,100
porque toda la gente que lo estaba escuchando se la creyó y entonces esto generó pues

82
00:07:08,100 --> 00:07:11,420
caos y pánico entre la población. Les transmitimos el audio espectacular de

83
00:07:11,420 --> 00:07:13,780
aquel entonces de Orson Welles. Diego Pablo, bienvenidos.

84
00:07:13,780 --> 00:07:15,860
¿Cómo están? Buenos días. ¿Qué tal? Buen día.

85
00:07:15,860 --> 00:07:24,340
Yo llevo todo el fin de semana tratando de pues tratando de hacer una definición acertada

86
00:07:24,340 --> 00:07:29,340
hoy en día de lo que es una noticia falsa y es tan complejo y tiene tantas aristas que

87
00:07:29,340 --> 00:07:32,620
no lo pude que no lo pude lograr. ¿Ustedes la tienen?

88
00:07:32,620 --> 00:07:37,820
O sea, ¿tienen claridad de que sí y que no es un fake news en una sociedad tan llena

89
00:07:37,820 --> 00:07:44,060
de información, tan llena de ruido, tan llena de formas de enterarse de las cosas?

90
00:07:44,060 --> 00:07:47,700
Me parece que para tener una definición de qué es falso, primero habría que entender

91
00:07:47,700 --> 00:07:49,900
qué es verdadero. Exacto.

92
00:07:49,900 --> 00:07:56,380
Entonces el problema es que la verdad depende de condiciones, del contexto, de la fecha,

93
00:07:56,380 --> 00:08:00,860
de con quién estabas hablando, de en qué momento se dio esa situación y cuáles eran

94
00:08:00,860 --> 00:08:05,820
las cosas que pasaban alrededor. Entonces entender el contexto es la parte fundamental.

95
00:08:05,820 --> 00:08:13,260
Entonces algo podría ser falso no por no ser completamente cierto, sino por no estar

96
00:08:13,260 --> 00:08:19,100
atacado en un cierto contexto. Por ejemplo, una noticia de hace dos semanas presentada

97
00:08:19,100 --> 00:08:24,940
como de hoy no es falsa en sí, pero en realidad es falsa si la presento hoy.

98
00:08:24,940 --> 00:08:28,060
Con un objetivo. Con un objetivo de hacer pensar a la gente

99
00:08:28,060 --> 00:08:34,220
de qué sucedió hoy o peor si sucedió hace dos años. Lo mismo descontextualizar las

100
00:08:34,220 --> 00:08:44,060
palabras. Si yo presento un trozo de información de un discurso de alguien y eso lo pongo para

101
00:08:44,060 --> 00:08:49,660
tratar de hacer una idea y quito lo que dijo antes o lo que dijo después que en realidad

102
00:08:49,660 --> 00:08:55,220
podría desdecir el mensaje que estoy tratando de decir, también lo hace una noticia falsa.

103
00:08:55,220 --> 00:09:01,360
No porque el contenido otra vez sea falso en sí mismo, sino porque al estar descontextualizado

104
00:09:01,360 --> 00:09:09,620
está generando esa falsedad. Entonces, bueno, no, en ese sentido, en el primer libro en

105
00:09:09,620 --> 00:09:13,540
no hemos entendido nada en donde hago un análisis de este tema. Yo en uno de los capítulos

106
00:09:13,540 --> 00:09:20,220
digo que la labor del periodismo de algo no es periodismo, sino ha podido aportar verificación

107
00:09:20,220 --> 00:09:25,500
y contexto y en ese sentido una información publicada por un medio de comunicación.

108
00:09:25,500 --> 00:09:32,300
O sea, partimos de que las noticias o el contenido noticioso lo realizan periodistas, los ciudadanos

109
00:09:32,300 --> 00:09:38,100
de a pie pueden transmitir información, pero eso no es una noticia en ese sentido.

110
00:09:38,100 --> 00:09:42,060
El problema es cuando los medios de comunicación la retoman como en los ejemplos que escuchábamos

111
00:09:42,060 --> 00:09:47,380
con Jiménez. Exacto, exacto. Entonces, el trabajo de un periodista o de un equipo periodístico

112
00:09:47,380 --> 00:09:53,980
es a esa información que ya sea producida, recogida, aportarle verificación y contexto.

113
00:09:53,980 --> 00:09:57,700
Si uno no ha podido hacer ese trabajo, pues lo que está haciendo no es periodismo o en

114
00:09:57,700 --> 00:10:04,500
todo caso es periodismo de muy mala calidad y una pequeña atingencia. Lo de Orson Welles

115
00:10:04,500 --> 00:10:10,980
es falso. Eso no ocurrió. La gente no se asustó, no hubo desmanes, no ocurrió nada.

116
00:10:10,980 --> 00:10:16,660
Está comprobadísimo de que eso ha sido construido posteriormente en estudios sociológicos que

117
00:10:16,660 --> 00:10:21,620
han pensado que eso ocurrió porque hubo un par de noticias que recogieron información.

118
00:10:21,620 --> 00:10:27,540
Pero hay portadas, hay primeras planas de periódicos. No ocurrió, no ocurrió. Ocurrió

119
00:10:27,540 --> 00:10:34,940
la transmisión, pero no hubo caos en la ciudad, no hubo gente. De hecho, hay reportes falsos

120
00:10:34,940 --> 00:10:42,500
de gente que se lanzó de un balcón. Todo eso es mentira. Fueron a posteriori periodistas,

121
00:10:42,500 --> 00:10:45,580
todos sabemos y a lo largo de la historia, como bien decía, siempre ha habido información

122
00:10:45,580 --> 00:10:50,980
falsa, información no verificada, información exagerada. La transmisión de la guerra de

123
00:10:50,980 --> 00:10:57,100
los mundos, que en efecto el relato es fantástico, es fantástico. Quien no lo haya escuchado,

124
00:10:57,100 --> 00:11:02,300
por favor escúchelo que no se esté oyendo. Pero ese caos generalizado no ocurrió como

125
00:11:02,300 --> 00:11:06,020
tal. Es algo que todo el mundo cree, ojo, todo el mundo piensa que eso es así y se

126
00:11:06,020 --> 00:11:11,780
utiliza como un ejemplo de cómo los medios de masa son capaces de... No es cierto, hubo

127
00:11:11,780 --> 00:11:16,820
gente evidentemente que se sorprendió, pero no hubo un caos ni la mayoría de la gente

128
00:11:16,820 --> 00:11:20,100
que escuchó pensó que estaban llegando los aliens. Eso no es verdad.

129
00:11:20,100 --> 00:11:24,900
O sea, decías, quiero hacer una acotación aquí, porque decías que quien hace eso,

130
00:11:24,900 --> 00:11:28,660
antes el tema de Orson Welles, no está haciendo periodismo, o sí lo está haciendo, pero

131
00:11:28,660 --> 00:11:29,660
con una agenda.

132
00:11:29,660 --> 00:11:34,140
Está haciendo periodismo equivocado, o ya sea está haciendo o bien periodismo de mala

133
00:11:34,140 --> 00:11:37,460
calidad. Hay dos tipos de noticias falsas.

134
00:11:37,460 --> 00:11:40,300
Pero las hablamos al regresar de la pausa, con música para más.

135
00:11:40,300 --> 00:11:53,820
Gracias, nos vemos con Adela y su canción Rumors sonando en el 103.3 y 970 de tu radio.

136
00:11:53,820 --> 00:12:00,060
Hey, marca. Ya sé que tú igual nos estás escuchando. ¿Te interesa crecer? A nosotros

137
00:12:00,060 --> 00:12:06,460
también. No pierdas más el tiempo y anúnciate con nosotros en rss.com. Queremos mostrarte

138
00:12:06,460 --> 00:12:11,700
cómo llegar más rápido a tus clientes y lograr tus metas más rápido. Escríbenos

139
00:12:11,700 --> 00:12:22,420
a ventas arroba rss.com ventas arroba rss.com. Y sabrás que se siente estar en boca de todos.

140
00:12:22,420 --> 00:12:31,540
No pierdas el rumbo. Regresamos con la mejor información. Daniel Diturbide en Fórmula.

141
00:12:31,540 --> 00:12:42,140
Días que la pausa se debió haber transmitido porque en el libro de Diego se trata un caso

142
00:12:42,140 --> 00:12:48,460
en el que estoy directamente involucrada y es el caso de el rescate de una supuesta niña

143
00:12:48,460 --> 00:12:53,140
en el colegio Repsa. Mientras el sismo del 2017. Luego, si nos da tiempo, hablamos de

144
00:12:53,140 --> 00:12:57,140
eso, porque además desde hace siete años ha habido un absoluto interés que además

145
00:12:57,140 --> 00:13:02,220
se ha puesto en varios días en la mañanera con otros fines. Pero en fin, nos decías,

146
00:13:02,220 --> 00:13:08,620
Diego, que hay dos tipos de fake news. Por un lado está aquella que es deliberadamente

147
00:13:08,620 --> 00:13:15,380
creada para generar caos y confusión. Ponías tú en el ejemplo de Fox News. Fox News es

148
00:13:15,380 --> 00:13:21,780
una maquinaria de creación de noticias falsas. Decía yo que con una agenda. Con una agenda,

149
00:13:21,780 --> 00:13:27,220
con ideología y destinado a golpear a un lado del espectro ideológico político de

150
00:13:27,220 --> 00:13:32,100
la del sistema político estadounidense. Y luego está el otro lado de fake news que

151
00:13:32,100 --> 00:13:39,500
como explicaba antes. Pablo Pablo, que es aquellas noticias en donde los periodistas

152
00:13:39,500 --> 00:13:44,360
no han hecho el trabajo de verificar o aportar el contexto necesario y sencillamente se encargan

153
00:13:44,360 --> 00:13:51,340
de difundir. Obran como meros amplificadores de información que no han podido verificar

154
00:13:51,340 --> 00:13:57,860
o poner en contexto. Evidentemente, digamos que desde un punto de vista moral o ético,

155
00:13:57,860 --> 00:14:04,160
las primeras tienen una gravedad mayor, pero el resultado es el mismo. O sea, es tan nocivo

156
00:14:04,160 --> 00:14:10,120
para la discusión pública y nuestro trabajo como periodistas es aportar contexto e información

157
00:14:10,120 --> 00:14:17,060
para facilitar una discusión pública saludable. Pero es tan nocivo para esa discusión pública

158
00:14:17,060 --> 00:14:25,340
generar noticias falsas a digamos a redes, a sabiendas como aportar información falsa

159
00:14:25,340 --> 00:14:30,060
que uno como periodista no ha verificado, porque ese es nuestro trabajo. Es lo mínimo

160
00:14:30,060 --> 00:14:33,540
que se nos puede exigir. Un ejemplo de eso y lo decíamos para quienes no sepan de qué

161
00:14:33,540 --> 00:14:37,340
estamos hablando es lo que está haciendo Fox News con algunos extractos del extractos

162
00:14:37,340 --> 00:14:42,100
del presidente Biden, que todos sabemos que tuvo un muy mal desempeño en el debate, que

163
00:14:42,100 --> 00:14:46,540
todos sabemos que tiene una edad avanzada, pero cortan estos clips que a todos y a todas

164
00:14:46,540 --> 00:14:51,580
nos han llegado y que todos y todas hemos compartido o hemos hablado de en los que se

165
00:14:51,580 --> 00:14:56,340
ve distraído. Sin embargo, lo que está pasando es que está platicando con unos niños, o

166
00:14:56,340 --> 00:14:59,780
sea, no está viendo a la nada como lo hace parecer, sino que está platicando con unos

167
00:14:59,780 --> 00:15:05,700
niños. Pablo, a ver, yo creo que lo que sucede y déjenme hablando de contexto, irme un

168
00:15:05,700 --> 00:15:12,740
poquito atrás en el contexto. El Internet decíamos hace rato que las noticias falsas

169
00:15:12,740 --> 00:15:17,340
no son algo nuevo y decías que tal vez el tema de Orson Welles que ya nos decían tal

170
00:15:17,340 --> 00:15:24,260
vez no sucedió o no sucedió con esa magnitud. Es lo que yo quería entender. Pero el Internet,

171
00:15:24,260 --> 00:15:29,220
lo que ha venido a hacer es un magnificador. El Internet es como una lupa de cosas que

172
00:15:29,220 --> 00:15:34,980
ya habían sucedido. La violencia ya existía, la violencia en persona existía, pero antes

173
00:15:34,980 --> 00:15:41,340
lo que ahora le llamamos bullying, pues siempre existió nada más que te molestaban cinco

174
00:15:41,340 --> 00:15:45,620
chicos en tu salón y ahora toda la escuela o toda la ciudad o todo el mundo. No, gente

175
00:15:45,620 --> 00:15:50,060
en cualquier parte del mundo. Entonces pasa exactamente lo mismo con las noticias falsas.

176
00:15:50,060 --> 00:15:55,920
Siempre hubo noticias falsas y antes de lo de Welles hubo noticias falsas creadas específicamente

177
00:15:55,920 --> 00:16:01,180
para engañar a enemigos en guerras. Claro. Hace muchísimos años. El asunto está en

178
00:16:01,180 --> 00:16:07,400
que el aparato que utilizamos para generarlas, que el Internet es la herramienta más democratizante

179
00:16:07,400 --> 00:16:12,740
que ha habido en la historia, que ayuda a dar información más rápida, de hacer comunicaciones

180
00:16:12,740 --> 00:16:19,820
de una manera más efectiva, nos obliga y nos ha mal acostumbrado tal vez a tener este

181
00:16:19,820 --> 00:16:28,640
sentido de inmediatez absoluta. Seguramente todos pasamos semanas tratando de comunicarnos

182
00:16:28,640 --> 00:16:35,060
con alguien. Cuando yo tenía 15 años era normal tratar de comunicarme con alguien y

183
00:16:35,060 --> 00:16:38,940
si no lo encontraba, dejaba el recado en su casa y tres o cuatro días se comunicaban

184
00:16:38,940 --> 00:16:43,980
conmigo después. Hoy si no se comunican tres o cuatro minutos. Si no ven tu mensaje

185
00:16:43,980 --> 00:16:48,920
a los 22 segundos. Empiezas a desesperarte y pasa exactamente lo mismo con las noticias.

186
00:16:48,920 --> 00:16:57,500
Si la noticia hace 30 años no se conocía en tres o cuatro días, empezaba a sentir

187
00:16:57,500 --> 00:17:02,500
desesperación, pero era el tiempo normal. Ahora, si no se conocen tres o cuatro minutos,

188
00:17:02,500 --> 00:17:08,380
no se conocen en tres o cuatro días, no se conocen en tres o cuatro días. Y entonces

189
00:17:08,380 --> 00:17:15,020
nos obliga a vivir una inmediatez que evita los aparatos que ya existían para corroborar

190
00:17:15,020 --> 00:17:21,940
lo que dice Diego, para tener mecanismos de validación, de corroboración y de, déjenme

191
00:17:21,940 --> 00:17:27,140
decir, de filtro para evitar estos problemas. Hay dos cosas importantes aquí, la inmediatez

192
00:17:27,140 --> 00:17:31,660
pero también los algoritmos que hay también ahora en el Internet. ¿Por qué? Porque lo

193
00:17:31,660 --> 00:17:36,860
que hay es que en un tiempo buscando, ¿no? Pues comentarios negativos hacia Biden, pues

194
00:17:36,860 --> 00:17:40,900
obviamente te van a salir estas fake news de Fox News, seguramente, ¿no? Y lo mismo

195
00:17:40,900 --> 00:17:45,900
pasa con muchísimas fenómenos y ahora lo veo con con el huracán Beryl, ¿no? Que tuvimos

196
00:17:45,900 --> 00:17:49,580
la semana pasada y todas las noticias falsas que hubo alrededor del huracán Beryl, mi

197
00:17:49,580 --> 00:17:53,660
familia que vive en Quintana Roo, que a cada rato me decía, oigan, es que que que ya es

198
00:17:53,660 --> 00:17:58,300
categoría cinco, que no sé qué, y yo decía, pero es que, ¿cómo? ¿de dónde están sacando

199
00:17:58,300 --> 00:18:03,380
esas noticias? Esa noticia que se estaba difundiendo a través de grupos de WhatsApp. Entonces,

200
00:18:03,380 --> 00:18:06,980
creo que también es muy importante el tema de que los periodistas por el tema de este

201
00:18:06,980 --> 00:18:10,900
también de la inmediatez, pues ya no verifican esta información, ¿no? Veíamos a periodistas

202
00:18:10,900 --> 00:18:16,820
que compartían videos que eran de el el fenómeno Alberto, que impactó en Tamaulipas y que

203
00:18:16,820 --> 00:18:21,340
ahora, pues bueno, lo decían que eran imágenes del huracán Beryl, ¿no? Sí, pero en esto

204
00:18:21,340 --> 00:18:25,460
que dices, hay un tema bien importante y es cuando los medios de comunicación dejan de

205
00:18:25,460 --> 00:18:30,660
jugar en la ecuación y es los mensajes en WhatsApp, por ejemplo, ¿no? O sea, si alguien

206
00:18:30,660 --> 00:18:35,620
redacta un mensaje en WhatsApp en el que dice cuidado Beryl es categoría cinco, va a pegar

207
00:18:35,620 --> 00:18:40,180
directamente en Cancún, todos nos vamos a morir y la cadena se empieza a hacer en WhatsApp

208
00:18:40,180 --> 00:18:44,340
o en los servicios de mensajería, pues ahí los medios no tienen ni cómo meter las manos

209
00:18:44,340 --> 00:18:48,920
salvo salvo dar la información correcta, pero la información ya está y la gente se

210
00:18:48,920 --> 00:18:53,260
lo cree y creo que por eso vale la pena que hablemos de esto. Sí, pero esto no ha ocurrido

211
00:18:53,260 --> 00:18:57,140
de la noche a la mañana. Esto ha sido un proceso. Yo en el libro marco el hito en el

212
00:18:57,140 --> 00:19:03,420
año 2006, que es cuando surge Twitter y cuando Facebook se convierte en lo que luego sería

213
00:19:03,420 --> 00:19:07,740
ya existía Facebook, como sabemos, nace en las aulas universitarias. En el año 2006,

214
00:19:07,740 --> 00:19:13,500
Facebook se abre a cualquier persona adulta que tenga una cuenta de correo funcional.

215
00:19:13,500 --> 00:19:20,980
Yo marco ese es el hito en el que ocurre este cambio e Internet y la revolución de redes

216
00:19:20,980 --> 00:19:25,700
sociales lo que hace principalmente son dos cosas. Uno altera por completo el ecosistema

217
00:19:25,700 --> 00:19:30,780
informativo y el ciclo noticioso. Como bien decía Pablo antes, el ciclo noticioso aquí

218
00:19:30,780 --> 00:19:36,540
los que somos un poco mayores en la mesa podemos recordar que había que duraba 12 horas aproximadamente.

219
00:19:36,540 --> 00:19:40,580
Tú tenías un noticiero a la mañana y un noticiero a la noche y la información que

220
00:19:40,580 --> 00:19:47,620
ocurría entre medias no tenías como conocerla hasta que llegaba la hora del prime time nocturno

221
00:19:47,620 --> 00:19:54,580
y eso ha sido así hasta inicios de los años 2000. Hemos convivido con eso por décadas.

222
00:19:54,580 --> 00:19:58,080
Esto se altera por completo al punto de que hoy cualquier persona que tenga un teléfono

223
00:19:58,080 --> 00:20:04,140
móvil tiene un ciclo está conectada a un ciclo noticioso ya no de horas de minutos.

224
00:20:04,140 --> 00:20:09,100
Eso por un lado y por el otro lado, como bien también decía Pablo, ha colapsado el contexto

225
00:20:09,100 --> 00:20:15,220
por completo porque en redes sociales toda la información vale lo mismo. Por eso hablamos

226
00:20:15,220 --> 00:20:21,020
de contenido. Si uno piensa esta palabra contenido que a mí me horroriza, pero ya es la moneda

227
00:20:21,020 --> 00:20:27,340
común, todo es contenido. Contenidos son los videos falsos que recibía tu familia,

228
00:20:27,340 --> 00:20:33,500
contenido es este programa, contenidos son los memes de ángeles que te manda tu tía,

229
00:20:33,500 --> 00:20:39,980
todo es contenido. Pero para uno como receptor en redes sociales todo es exactamente lo mismo

230
00:20:39,980 --> 00:20:46,380
y lo que bien decía Daniel es, sí, ok, ahora en los grupos de WhatsApp, claro hemos pasado

231
00:20:46,380 --> 00:20:50,180
de este ecosistema entre comillas abierto que era redes sociales, que en realidad no era

232
00:20:50,180 --> 00:20:54,220
tan abierto porque como bien decías estaba controlado por algoritmos que decidían qué

233
00:20:54,220 --> 00:21:00,180
es lo que veías, pero ahora hemos vuelto, no todo el mundo, pero progresivamente a un

234
00:21:00,180 --> 00:21:05,900
ecosistema cerrado que son los grupos de WhatsApp. Pero qué ocurre, los medios no podemos lavarnos

235
00:21:05,900 --> 00:21:11,740
las manos, porque que la gente ahora confíe más en el mensaje que le llega en un grupo

236
00:21:11,740 --> 00:21:16,300
de WhatsApp en parte es porque ya no confía en nosotros y no confía en nosotros por estos

237
00:21:16,300 --> 00:21:20,140
20 años. Pero entonces confían en alguien que no saben quién es. Por supuesto, porque

238
00:21:20,140 --> 00:21:25,560
son grupos de personas con las que tienen algún tipo de relación. El viejo dicho dice

239
00:21:25,560 --> 00:21:32,700
una mentira repetida mil veces, no se vuelve verdad, pero sí se vuelve meme y el problema

240
00:21:32,700 --> 00:21:41,460
es que hoy la gente se alimenta de memes. Ya decía Diego, este aparato noticioso e informativo

241
00:21:41,460 --> 00:21:47,180
que existió durante décadas, pero fue roto por ahí del 2006, tiene una característica

242
00:21:47,180 --> 00:21:52,500
importante. Uno, el Internet como yo decía, democratizó la información, pero también

243
00:21:52,500 --> 00:21:57,380
democratizó quién la genera. Antes para generar contenido necesitabas tener cierto

244
00:21:57,380 --> 00:22:04,460
estatus. Ahora necesitas solo tener un smartphone y poder generar. Ahí la dejamos porque tenemos

245
00:22:04,460 --> 00:22:30,540
que hacer una pausa. Así es, los amigos invisibles en mentiras sonando en el cinto 3.3.

246
00:22:30,540 --> 00:22:39,620
No pierdas el rumbo. Regresamos con la mejor información. Daniel DiTurbide en Fórmula.

247
00:22:39,620 --> 00:22:46,900
Te interrumpí Pablo para irnos a la pausa. A ver, para publicar una noticia antes se

248
00:22:46,900 --> 00:22:53,440
necesitaba tener cierto estatus, cierta jerarquía noticiosa. Hoy basta con tener un teléfono,

249
00:22:53,440 --> 00:22:59,420
pero no quiere decir que eso esté mal. El problema está en que vende cada quien. Y

250
00:22:59,420 --> 00:23:07,100
es que antes los medios vendían credibilidad, vendían reputación. Lo que vendía el que

251
00:23:07,100 --> 00:23:12,260
difundía noticias era la veracidad de sus noticias, porque entonces el que difundía

252
00:23:12,260 --> 00:23:16,140
la noticia más verdadera es el que tenía mejor audiencia. El problema es que hoy ya

253
00:23:16,140 --> 00:23:22,100
no vendemos eso. Hoy se venden clics. O sea, hoy lo que vendes es quién tiene más vistas.

254
00:23:22,100 --> 00:23:28,080
Y una noticia tendenciosa con un título escogido y aparte hecho a la medida con lo que decías

255
00:23:28,080 --> 00:23:33,340
hace rato de tener datos muy precisos de qué le gusta una persona, qué le llama la atención,

256
00:23:33,340 --> 00:23:40,580
qué tiene, así motivos de clic. Entonces genera mayor atracción de eso que venden

257
00:23:40,580 --> 00:23:45,180
los medios ahora, que ya no es verdad. O sea, ya no venden verdad. Lo que venden ahora los

258
00:23:45,180 --> 00:23:51,740
medios es atención. Los modelos mediáticos hoy lo que necesitan es tener la atención

259
00:23:51,740 --> 00:23:56,820
de la gente. Y al parecer los consumidores tampoco buscan información solamente. Buscan...

260
00:23:56,820 --> 00:24:05,780
Es que... Y déjame afinar un poco. No es que solo se busquen clics. Se vende identidad,

261
00:24:05,780 --> 00:24:13,040
se vende afiliación. O sea, la gente quiere... Y ojo, esto no está mal. Los seres humanos

262
00:24:13,040 --> 00:24:21,340
estamos cableados para esto. Somos seres tribales, grupales. Queremos reconocernos

263
00:24:21,340 --> 00:24:29,260
como miembros de un grupo. Lo que nos gusta a los seres humanos es leer, ver, escuchar

264
00:24:29,260 --> 00:24:35,340
cosas que agraden a nuestros prejuicios, a nuestras ideas preconcebidas, a la ideología

265
00:24:35,340 --> 00:24:39,900
que ya traemos de eso. Y los medios, como bien señalabas, no es que ya no vendamos

266
00:24:39,900 --> 00:24:43,620
atención. Al contrario, antes también se vendía atención. Solo que se la vendíamos

267
00:24:43,620 --> 00:24:48,300
a los anunciantes y se intentaba capturar la mayor cantidad de atención y por eso se

268
00:24:48,300 --> 00:24:57,340
buscaba cierto punto medio. Necesitabas la mayor cantidad de oídos u ojos posibles.

269
00:24:57,340 --> 00:25:03,020
Ahora lo que necesitas y el internet lo que funciona es tener un grupo, una audiencia

270
00:25:03,020 --> 00:25:07,540
apasionada por lo que tú estás diciendo. Para poner un ejemplo muy claro en México.

271
00:25:07,540 --> 00:25:13,040
Si yo estoy completamente en contra del presidente López Obrador de las políticas que ha hecho

272
00:25:13,040 --> 00:25:18,660
de su administración y me ponen una nota en la que me dicen con datos reales que el

273
00:25:18,660 --> 00:25:23,740
sureste mexicano ha sido sumamente impulsado por el Tren Maya, que la gente en algunas

274
00:25:23,740 --> 00:25:27,540
ciudades del sureste mexicano está feliz con el Tren Maya, pues no la voy a querer

275
00:25:27,540 --> 00:25:33,500
consumir. No te lo vas a querer consumir. Es real. Si por otra parte yo soy muy fiel

276
00:25:33,500 --> 00:25:38,100
seguidor o seguidora del presidente López Obrador y me dicen que el Tren Maya no funciona

277
00:25:38,100 --> 00:25:42,420
como debía, que costó mucho más de lo que habían dicho que costaría, pues tampoco

278
00:25:42,420 --> 00:25:47,620
lo voy a querer oír. O sea, esa es la posibilidad. Este es el menú que tenemos hoy en día

279
00:25:47,620 --> 00:25:51,860
como consumidores. Pero ¿qué hacer? ¿Qué hacer para más allá de nuestras filias y

280
00:25:51,860 --> 00:25:56,300
fobias consumir contenido que valga la pena y contenido que no nos engañe y sobre todo

281
00:25:56,300 --> 00:26:01,460
que no nos haga engañar a otros, como es el caso del huracán, por ejemplo, y de esparcir

282
00:26:01,460 --> 00:26:04,700
una noticia que lo único que va a provocar es hasta un pánico colectivo. ¿Qué hacer

283
00:26:04,700 --> 00:26:10,140
como consumidores? Bueno, hay dos cosas aquí. ¿Qué hacer como periodistas, como hombres

284
00:26:10,140 --> 00:26:14,300
o mujeres de prensa? Y qué hacer como consumidores? Como hombres y mujeres de prensa, yo creo

285
00:26:14,300 --> 00:26:18,180
que lo que tenemos que hacer es nuestro trabajo y lastimosamente muchísimos de nuestros colegas

286
00:26:18,180 --> 00:26:23,020
no hacen su trabajo. Entonces tenemos que ser quienes hagan su trabajo y quienes defiendan

287
00:26:23,020 --> 00:26:30,740
esos principios de calidad periodística. Eso es lo primero y como consumidores ahí

288
00:26:30,740 --> 00:26:36,180
es más difícil. O sea, lo que podemos ser si somos además personas a las que les preocupan

289
00:26:36,180 --> 00:26:43,100
estos temas es convertirnos en esta, en evangelizadores, en nuestros pequeños grupos y explicar todos

290
00:26:43,100 --> 00:26:47,260
tenemos mil grupos de WhatsApp con las familias, los amigos, los compañeros del fútbol, del

291
00:26:47,260 --> 00:26:54,900
colegio, de los padres, etcétera, etcétera. Intentar ser ese Pepito Grillo que porque

292
00:26:54,900 --> 00:26:58,500
y retomo algo que conversábamos en el segmento anterior y es como me decías, pero por qué

293
00:26:58,500 --> 00:27:06,100
creen a una persona en su WhatsApp y no a un medio? Porque en el WhatsApp hay una ilusión

294
00:27:06,100 --> 00:27:10,740
de intimidad. Te está hablando una persona que en principio conoces más o menos, pero

295
00:27:10,740 --> 00:27:15,140
conoces. Y además se va haciendo la cadenita, no? Lo mandó mi tía, pero no era tu tía,

296
00:27:15,140 --> 00:27:19,820
era la tía del que te lo mandó que a su vez tampoco era su tía. Pero te crees ilusión

297
00:27:19,820 --> 00:27:24,980
de intimidad. Que posiblemente ni lo leyó. No hombre, claro. El problema de esto es que

298
00:27:24,980 --> 00:27:29,820
perdimos los filtros y ahorita decías que era un poquito más difícil para los usuarios.

299
00:27:29,820 --> 00:27:34,300
Yo creo que sí. Y sí es un poquito más difícil, pero creo que hay una fórmula importante

300
00:27:34,300 --> 00:27:39,940
que también le sirve a los periodistas, que es. Slow down tan así bajar la velocidad

301
00:27:39,940 --> 00:27:45,580
tantito, o sea, reducir esa sensación de inmediatez. No quiere decir que la tengo que reducir nuevamente

302
00:27:45,580 --> 00:27:53,140
a 12 horas, pero sí lo puedo reducir de haber antes de publicar esta noticia. Ya la leí

303
00:27:53,140 --> 00:27:59,060
porque a lo mejor leí el titular. O sea, a veces republicamos cosas por coincidir con

304
00:27:59,060 --> 00:28:05,620
el titular cuando el contenido de la noticia dice otra cosa distinta. Dos dice algo cierto

305
00:28:05,620 --> 00:28:10,060
y con quién lo puedo corroborar. Ya fui a la fuente. Quién lo dijo ayer? Puedo ver

306
00:28:10,060 --> 00:28:16,100
algún otro medio que ya dijo lo mismo. Puedo revisar directamente con la fuente, con el

307
00:28:16,100 --> 00:28:24,580
que lo supone que lo dijo. Y entonces reducir la velocidad un poquito y ir directamente

308
00:28:24,580 --> 00:28:29,740
a la fuente, corroborar las fuentes, corroborar las fechas, ampliar el contexto. Oye, me

309
00:28:29,740 --> 00:28:35,980
están dando un clip de 10 segundos en donde alguien parece que dice algo y podré conseguir

310
00:28:35,980 --> 00:28:40,660
el clip completo con un minuto antes y un minuto después. Ser consumidores responsables.

311
00:28:40,660 --> 00:28:45,180
Esto lo dijo ni se diga periodistas. Ese es nuestro trabajo en WhatsApp sobre todo. Y

312
00:28:45,180 --> 00:28:49,180
esto es un mensaje. Pues digamos que para la audiencia ahorita me estaba acordando

313
00:28:49,180 --> 00:28:54,980
cuando tocó tierra el huracán Otis en Acapulco. La cantidad de fake news que se difundieron

314
00:28:54,980 --> 00:29:00,100
a través de WhatsApp. No sé si ustedes y seguramente si recibieron un audio de lo que

315
00:29:00,100 --> 00:29:04,260
estaba ocurriendo en la carretera. Que no habían golpeado. Pero entonces yo creo que

316
00:29:04,260 --> 00:29:09,020
también, claro como periodistas tenemos esta responsabilidad, pero también como consumidores

317
00:29:09,020 --> 00:29:14,160
como lo decía Daniel, el hecho de consumir todo lo que encontramos y sobre todo en las

318
00:29:14,160 --> 00:29:19,740
redes sociales y en Internet con responsabilidad. Pero qué pasa en redes sociales como Twitter

319
00:29:19,740 --> 00:29:25,300
en donde ya puedes tener tu cuenta verificada con pagar. Entonces eso yo creo que también

320
00:29:25,300 --> 00:29:28,860
es un tema. Lo primero que tendríamos que hacer con Twitter es todos los periodistas

321
00:29:28,860 --> 00:29:33,540
salir corriendo de ahí. Yo dejé de usar Twitter hace. Por suerte me hizo un favor

322
00:29:33,540 --> 00:29:38,940
y lo más comprando lo y destrozándolo porque ya yo ya llevaba tiempo queriendo desintoxicarme

323
00:29:38,940 --> 00:29:45,020
y ahora ya sencillamente es Twitter es absolutamente inútil para informarse hoy en día. O sea,

324
00:29:45,020 --> 00:29:55,100
es un pozo séptico en donde la información de más baja estofa, racista, homófoba, machista

325
00:29:55,100 --> 00:30:02,900
y todo lo que quieras es trans discurre en como ríos de y perdóneme la palabra de mierda.

326
00:30:02,900 --> 00:30:06,780
Entonces sencillamente los periodistas debemos dejar de usar Twitter. O sea, los consumidores

327
00:30:06,780 --> 00:30:11,860
que hagan lo que quieran, pero nosotros tenemos que dejar de informarnos en Twitter. Lástimosamente

328
00:30:11,860 --> 00:30:17,300
parece que no lo queremos hacer. La facilidad de usar lo dijo una fuente, una fuente cercana

329
00:30:17,300 --> 00:30:21,060
al caso, una fuente oficial. Bueno, cuál es la fuente cercana al caso? Cuál es la fuente

330
00:30:21,060 --> 00:30:25,660
oficial? Cítala. Es que hay o no, pero hay códigos para hacer eso, que es otra cosa

331
00:30:25,660 --> 00:30:30,420
que los periodistas muchas veces. Una de las cosas buenas entre comillas, porque aquí

332
00:30:30,420 --> 00:30:35,240
parece a ratos y quiero romper una lanza en contra de eso, parece que estamos siendo

333
00:30:35,240 --> 00:30:38,780
nostálgicos con el pasado y no, no se trata de eso. Estamos en un momento de crisis,

334
00:30:38,780 --> 00:30:43,060
de transición. Ha habido un cambio de paradigma informativo. Entonces, pero lo que señalas

335
00:30:43,060 --> 00:30:48,820
es que muchas veces abusamos del uso de una fuente cercana, fuentes cercanas a la familia,

336
00:30:48,820 --> 00:30:53,260
fuentes familiares con el hecho, etcétera, para utilizar ese tipo de recursos que tienen

337
00:30:53,260 --> 00:30:58,340
un sentido. Se trata de proteger a la fuente en casos en donde tienen que ser protegidos.

338
00:30:58,340 --> 00:31:03,620
Hay códigos para hacer eso. Tienes que aportar información y además la verificación tiene

339
00:31:03,620 --> 00:31:09,580
que haber ido el extra mile y tienes que explicar en el texto por qué lo estás usando o en

340
00:31:09,580 --> 00:31:15,020
la noticia o en el reporte o donde sea. Pasa que nos hemos vuelto perezosos muchas veces

341
00:31:15,020 --> 00:31:19,260
los periodistas y ya no lo hacemos y basta. Una fuente cercana. ¿Y por qué le tenemos

342
00:31:19,260 --> 00:31:22,500
que creer esa fuente cercana? ¿Y por qué te tengo que creer a ti que estás citando

343
00:31:22,500 --> 00:31:26,180
una fuente que yo no sé quién es? Ahora dices bien que no queremos regresar al pasado,

344
00:31:26,180 --> 00:31:33,200
por supuesto que no. Y lo que sí es que tenemos que entender que se va a, no sé si el término

345
00:31:33,200 --> 00:31:39,380
correcto sea complicar, pero que se va a avanzar esta situación, Pablo. La inteligencia artificial,

346
00:31:39,380 --> 00:31:43,060
por ejemplo, es un factor que ya no podemos dejar fuera de esta ecuación y que va a llegar

347
00:31:43,060 --> 00:31:48,980
a complicar mucho más este tema. Definitivamente, pero también lo va a llegar a resolver por

348
00:31:48,980 --> 00:31:54,820
lo menos de manera parcial. A ver, la inteligencia artificial es una herramienta, hace rato decías

349
00:31:54,820 --> 00:31:58,980
cuando eres martillo a todo lo ves cara de clavo, pues la inteligencia artificial también

350
00:31:58,980 --> 00:32:03,820
es una herramienta que puedes utilizar para el bien o para el mal. Si bien la inteligencia

351
00:32:03,820 --> 00:32:08,340
artificial hoy se ha utilizado erróneamente para generar fake news, hay un video mío

352
00:32:08,340 --> 00:32:12,940
por ejemplo, videos falsos en el que dicen que yo invito a invertir que yo entrevisté

353
00:32:12,940 --> 00:32:19,020
al ingeniero Slim, lo cual nunca en la vida ha sucedido. Pero la misma inteligencia artificial

354
00:32:19,020 --> 00:32:24,300
pero usada para el bien podría ser utilizada para corroborar las fuentes de una noticia

355
00:32:24,300 --> 00:32:30,140
para identificar si una noticia es falsa, para identificar de dónde vino, de dónde

356
00:32:30,140 --> 00:32:36,140
fue replicada y cómo es que surgió. Entonces me parece que tiene este sentido ambivalente

357
00:32:36,140 --> 00:32:40,460
que por un lado hay quien la puede utilizar con mala intención, igual que un martillo

358
00:32:40,460 --> 00:32:45,080
puedes utilizarlo para construir muebles hermosos y también puedes utilizarlo para destruirle

359
00:32:45,080 --> 00:32:50,740
a alguien la cabeza. Entonces el asunto está en utilizar las herramientas para el bien

360
00:32:50,740 --> 00:32:55,460
y en el particular caso de la inteligencia artificial hay varios mecanismos que ayudarían

361
00:32:55,460 --> 00:33:02,980
a tener formas de hacerlo mejor y más rápido que los seres humanos, el corroborar las fuentes,

362
00:33:02,980 --> 00:33:07,500
el leer la noticia completa, el sacar un resumen y el ver qué está diciendo en realidad lo

363
00:33:07,500 --> 00:33:13,140
que queremos decir. Tenía una pregunta para Pablo que era ¿qué

364
00:33:13,140 --> 00:33:17,960
tipos de noticias falsas si ustedes tienen como algún registro de las noticias falsas

365
00:33:17,960 --> 00:33:22,580
más comunes en México, de las que más consumimos en los mexicanos?

366
00:33:22,580 --> 00:33:28,460
A ver, primero las noticias falsas más comunes vienen con lo más tendencioso, entonces tiene

367
00:33:28,460 --> 00:33:33,580
que ver con estacionalidad, si estamos cerca de las elecciones lo que más vende fue algo

368
00:33:33,580 --> 00:33:39,720
de elecciones, pero fuera del tiempo de elecciones normalmente las noticias falsas que más se

369
00:33:39,720 --> 00:33:45,540
consumen son las que tienen que ver con algo que es monetizable para el que la difunde.

370
00:33:45,540 --> 00:33:49,980
Normalmente seguramente la que te pusieron era para que invirtieran en algún engaño

371
00:33:49,980 --> 00:33:56,260
y no tenían que poner dinero porque eso deja dinero, o sea, entonces lo que es monetizable

372
00:33:56,260 --> 00:34:00,540
para la contraparte que la está publicando es lo que más se difunde.

373
00:34:00,540 --> 00:34:03,020
Vamos a hacer una pausa con música como siempre, Pame, volvemos.

374
00:34:03,020 --> 00:34:20,100
Nos vemos con Kenia Oz, esto se titula Rumores a través del 103.3 y 970 de tu radio.

375
00:34:20,100 --> 00:34:23,500
¿Quieres iniciar, hacer crecer o monetizar tu podcast?

376
00:34:23,500 --> 00:34:27,380
Saber todos los secretos de todos.

377
00:34:27,380 --> 00:34:28,740
¿Dónde y cuándo quieres?

378
00:34:28,740 --> 00:34:30,740
¿Les va a cambiar la vida?

379
00:34:30,740 --> 00:34:36,500
RSS.com, almacenamiento, distribución y programación de tus episodios en un solo lugar.

380
00:34:36,500 --> 00:34:41,500
Hosteado y distribuido por RSS.com.

381
00:34:41,500 --> 00:34:47,660
RSS.com, hacer podcast de manera fácil.

382
00:34:47,660 --> 00:34:51,140
No pierdas el rumbo.

383
00:34:51,140 --> 00:34:54,420
Regresamos con la mejor información.

384
00:34:54,420 --> 00:34:57,420
Daniel Diturbide en Fórmula.

385
00:34:57,420 --> 00:35:01,460
Me parece interesantísimo algo que decías, Diego, y que estabas diciendo en este momento

386
00:35:01,460 --> 00:35:06,340
precisamente y es que las redes sociales para quienes generan contenido y hay que decirlo

387
00:35:06,340 --> 00:35:10,900
para quien no lo sepa, dejan mucho dinero.

388
00:35:10,900 --> 00:35:11,900
Mucho dinero.

389
00:35:11,900 --> 00:35:16,060
Un gran negocio para cierto, para un porcentaje de personas.

390
00:35:16,060 --> 00:35:18,060
Mínimo, pero que genera contenido.

391
00:35:18,060 --> 00:35:23,380
Y generar el contenido en muchos casos cuesta cero pesos y cero centavos.

392
00:35:23,380 --> 00:35:29,340
Y generar noticias falsas y contenido falso y contenido que puede provocar caos porque

393
00:35:29,340 --> 00:35:32,540
es potencialmente caótico, cuesta entonces cero pesos y cero centavos.

394
00:35:32,540 --> 00:35:37,700
Claro, decíamos al inicio de la conversación que, y esto se dice y hay estudios y se lo

395
00:35:37,700 --> 00:35:39,300
repitan especialistas, ¿no?

396
00:35:39,300 --> 00:35:45,100
Siempre ha existido noticias falsas, siempre ha existido bulos, siempre ha existido engaños

397
00:35:45,100 --> 00:35:46,820
para invertir y demás, ¿no?

398
00:35:46,820 --> 00:35:48,860
Sí, eso es absolutamente cierto.

399
00:35:48,860 --> 00:35:51,060
Y de hecho es un tema que a mí me fascina.

400
00:35:51,060 --> 00:35:53,940
Me encantan ese tipo de libros, películas y demás.

401
00:35:53,940 --> 00:36:00,940
Pero lo que no existía antes era la tecnología para uno llevar el costo de producir esa información

402
00:36:00,940 --> 00:36:03,820
a cero.

403
00:36:03,820 --> 00:36:09,260
Antes si tú querías generar una estafa, yo qué sé, y lo del príncipe nigeriano,

404
00:36:09,260 --> 00:36:10,260
¿no?

405
00:36:10,260 --> 00:36:13,300
Que todo el mundo tiene en la cabeza, pues tenías que ir al correo, redactar cartas,

406
00:36:13,300 --> 00:36:14,940
enviarlas, comprar estampillas, etcétera.

407
00:36:14,940 --> 00:36:18,740
Hoy en día eso cuesta cero, es un mail y puedes enviárselo a millones de personas.

408
00:36:18,740 --> 00:36:21,940
Y lo otro es millones de personas.

409
00:36:21,940 --> 00:36:28,500
Tu audiencia, como en todos los aspectos de nuestra vida, se ha elevado exponencialmente.

410
00:36:28,500 --> 00:36:30,800
O sea, la audiencia es infinita.

411
00:36:30,800 --> 00:36:37,220
Estoy segura, Pablo, no sé si tú desde hace mucho vives en México, Diego, pero seguramente

412
00:36:37,220 --> 00:36:42,080
tú te acuerdas, Pablo, de una gran noticia falsa que se difundió durante muchas semanas

413
00:36:42,080 --> 00:36:44,400
en México cuando éramos chavos.

414
00:36:44,400 --> 00:36:49,100
Y era que en Los Antros, en las discotecas que estaban de moda, te inyectaban VIH.

415
00:36:49,100 --> 00:36:50,580
Y en el cine.

416
00:36:50,580 --> 00:36:51,580
Y en el cine.

417
00:36:51,580 --> 00:36:55,820
En todos los países del mundo, en todo el mundo occidental esa noticia, eso era un

418
00:36:55,820 --> 00:36:56,820
bulo en los años 80.

419
00:36:56,820 --> 00:37:00,820
Y bueno, ya me viste con cara de más grande.

420
00:37:00,820 --> 00:37:04,340
No, en los años 80 yo no iba a Los Antros.

421
00:37:04,340 --> 00:37:07,740
Pero nacen en los años 80 esos bulos.

422
00:37:07,740 --> 00:37:10,340
Pero a lo que voy es que los medios de comunicación también lo reconocieron.

423
00:37:10,340 --> 00:37:11,340
Generaban noticias.

424
00:37:11,340 --> 00:37:13,820
Pero hay que entender por qué existen también.

425
00:37:13,820 --> 00:37:19,220
Y es que hace rato trataba de explicar que no sólo la noticia falsa trata de generar

426
00:37:19,220 --> 00:37:22,820
un contenido para modificar la opinión de una persona.

427
00:37:22,820 --> 00:37:27,940
La noticia falsa puede ser también una manera de medir.

428
00:37:27,940 --> 00:37:33,540
La respuesta de la gente para saber si son objetivo de alguna otra noticia falsa.

429
00:37:33,540 --> 00:37:38,180
Entonces lo que hacen con estas noticias, por ejemplo, aquellas de que te iban a inyectar

430
00:37:38,180 --> 00:37:43,260
cierta enfermedad en un antro o en el cine, tiene que ver con quién la consumía, quién

431
00:37:43,260 --> 00:37:44,260
la replicaba.

432
00:37:44,260 --> 00:37:54,300
Hay que recordar que esta fue empezada a difundir cuando el fax empezaba a estar de moda, cuando

433
00:37:54,300 --> 00:37:56,220
el correo electrónico empezaba a estar de moda.

434
00:37:56,220 --> 00:38:00,780
O sea, cuando empezó a haber medios, déjenme llamarles, democráticamente masivos.

435
00:38:00,780 --> 00:38:03,820
No sólo el correo electrónico, desde antes hubo algunos otros.

436
00:38:03,820 --> 00:38:04,820
Las llamadas telefónicas.

437
00:38:04,820 --> 00:38:09,220
No, todo cambio tecnológico genera estos momentos de crisis.

438
00:38:09,220 --> 00:38:14,900
Había para medir quiénes caían en esta, porque si caían en esta era probable que

439
00:38:14,900 --> 00:38:16,440
caían en la otra.

440
00:38:16,440 --> 00:38:19,660
Ahora lo hacemos con el perfilamiento de redes sociales, nada más que el perfilamiento de

441
00:38:19,660 --> 00:38:25,260
redes sociales ahora tiene 185 puntos de conocimiento de cada persona.

442
00:38:25,260 --> 00:38:29,820
Antes a lo mejor tenían seis o siete, pero podían saber a qué cosas eran susceptibles

443
00:38:29,820 --> 00:38:33,700
que te movían, cuáles eran tus filias y cuáles eran tus fobias.

444
00:38:33,700 --> 00:38:37,940
Entonces también hoy se utilizan noticias falsas que no tienen un objetivo ni siquiera

445
00:38:37,940 --> 00:38:43,220
noticioso o desinformativo, sino solamente de medición de la audiencia para saber en

446
00:38:43,220 --> 00:38:47,660
qué caíste, a qué le diste clic, qué detuvo tu vista en el escleró, qué genera sentimiento,

447
00:38:47,660 --> 00:38:48,660
qué es finalmente lo que busca.

448
00:38:48,660 --> 00:38:51,860
Entonces, ¿a dónde van a mandar tu siguiente mensaje?

449
00:38:51,860 --> 00:38:56,780
Bueno, quiero que este programa siguiera por muchos minutos, porque me parece que es interesantísimo

450
00:38:56,780 --> 00:38:59,900
el tema y que hace falta muchísimo más.

451
00:38:59,900 --> 00:39:07,460
Pero cómo, cómo cerrar el tema, Diego, cómo, cómo poner algo positivo sobre la mesa y

452
00:39:07,460 --> 00:39:14,060
en nuestra audiencia para no caer en redes sociales falsas, en cuentas de redes sociales

453
00:39:14,060 --> 00:39:18,820
llenas de noticias falsas para no esparcirlas de forma bien intencionada?

454
00:39:18,820 --> 00:39:24,300
Porque nadie, yo no le voy a mandar a mi tía algo para generarle algún daño, solo se lo

455
00:39:24,300 --> 00:39:25,860
voy a mandar porque creo que es real.

456
00:39:25,860 --> 00:39:29,620
Bueno, yo trato de verificar, por supuesto, pero me refiero al común de la gente.

457
00:39:29,620 --> 00:39:35,420
Yo creo que lo principal es entender y esto aplica tanto para periodistas como para ciudadanos

458
00:39:35,420 --> 00:39:40,020
de a pie, entender que estamos en un momento de crisis informativa, no?

459
00:39:40,020 --> 00:39:45,520
Y así como cuando uno está en un momento de crisis porque hay un huracán y cambia

460
00:39:45,520 --> 00:39:50,180
sus conductas en un momento de crisis informativa, que además no sabemos cuánto va a durar,

461
00:39:50,180 --> 00:39:55,540
porque de nuevo, esto no es una nostalgia por el pasado, estamos evolucionando.

462
00:39:55,540 --> 00:39:58,060
El contexto informativo está evolucionando.

463
00:39:58,060 --> 00:40:02,220
Tenemos que actuar como que estamos en crisis informativa, entonces tenemos que tomar extra

464
00:40:02,220 --> 00:40:08,060
precauciones porque este contexto, de nuevo, muchas de nuestras instituciones que sostienen

465
00:40:08,060 --> 00:40:11,620
los pilares, que sostienen nuestras sociedades liberales, democráticas, etcétera, están

466
00:40:11,620 --> 00:40:15,140
construidas sobre un contexto informativo que ha muerto.

467
00:40:15,140 --> 00:40:17,700
Entonces tenemos que adaptarlas.

468
00:40:17,700 --> 00:40:21,140
Obviamente, pues como ciudadano de pie uno puede decir, ah, pero eso no me toca a mí.

469
00:40:21,140 --> 00:40:25,300
Sí, pero sí te toca entender que estás en crisis, que tenemos una crisis y que eres

470
00:40:25,300 --> 00:40:30,740
susceptible de caer en estos engaños y de no solo caer, sino de ser un propagador y

471
00:40:30,740 --> 00:40:32,180
ahondar esa crisis.

472
00:40:32,180 --> 00:40:34,340
Y queda pendiente nuestra charla de Frida Sofía.

473
00:40:34,340 --> 00:40:35,340
Cuando quieras.

474
00:40:35,340 --> 00:40:38,260
Con lo que tu redactas en tu libro, no hemos entendido nada.

475
00:40:38,260 --> 00:40:41,900
Hace mucho que no lo leía, ahorita lo volví a hojar y podemos tener una charla interesante

476
00:40:41,900 --> 00:40:42,900
de esto.

477
00:40:42,900 --> 00:40:43,900
Se vea fantástico.

478
00:40:43,900 --> 00:40:47,100
No de mí, sino de lo que sucedió, que a tanta gente, incluyendo al presidente de la

479
00:40:47,100 --> 00:40:48,700
República, le sigue interesando tanto.

480
00:40:48,700 --> 00:40:52,420
Bueno, un foco de noticias falsas importante en este país.

481
00:40:52,420 --> 00:40:53,420
La mañanera.

482
00:40:53,420 --> 00:40:54,420
Todos los días.

483
00:40:54,420 --> 00:40:55,420
Sí.

484
00:40:55,420 --> 00:40:58,740
Va a ser interesante ver qué pasa con ese foco.

485
00:40:58,740 --> 00:40:59,740
Yo creo que se va a apagar.

486
00:40:59,740 --> 00:41:06,820
Pablo, a ver, yo creo que hay que entender para contrarrestarlo y decir cómo concluirlo

487
00:41:06,820 --> 00:41:12,220
en que es una responsabilidad compartida, como bien lo decía Diego.

488
00:41:12,220 --> 00:41:16,700
Es una responsabilidad compartida entre los usuarios, los consumidores que debemos filtrar,

489
00:41:16,700 --> 00:41:22,420
que debemos identificar, que tenemos que consumimos, a quién le creemos y cómo corroboramos eso

490
00:41:22,420 --> 00:41:23,420
que consumimos.

491
00:41:23,420 --> 00:41:26,940
Dos de las plataformas que no son medios informativos.

492
00:41:26,940 --> 00:41:31,020
A veces confundimos las plataformas con medios informativos y noticiosos.

493
00:41:31,020 --> 00:41:32,020
Las plataformas solo.

494
00:41:32,020 --> 00:41:34,700
O sea, Twitter no es un medio de información.

495
00:41:34,700 --> 00:41:39,140
Twitter solamente es un marketplace en donde puedes consumir información verdadera o falsa.

496
00:41:39,140 --> 00:41:44,380
Entonces, las plataformas también deberán tener un mecanismo de filtrar, identificar

497
00:41:44,380 --> 00:41:46,580
y bloquear noticias falsas.

498
00:41:46,580 --> 00:41:51,980
Tres, los medios de comunicación ahora sí, noticiosos que puedan tener mejores maneras

499
00:41:51,980 --> 00:41:58,220
de filtrar, de tenerse tantito y poder hacer una conclusión a tiempo, aunque no quiere

500
00:41:58,220 --> 00:42:04,060
que se tengan 12 horas, pero también una educación continua y compartir información

501
00:42:04,060 --> 00:42:08,260
con los demás y sobre todo con los más débiles.

502
00:42:08,260 --> 00:42:13,100
Los menores, los adultos mayores, los que no se llevan también con la tecnología será

503
00:42:13,100 --> 00:42:15,460
importante y sobre todo en momentos de crisis.

504
00:42:15,460 --> 00:42:19,740
Volviendo al tema huracanes, desastres naturales, que todos estamos más ávidos de información

505
00:42:19,740 --> 00:42:22,180
y todos estamos en un estado mucho más tenso.

506
00:42:22,180 --> 00:42:23,180
Gracias a ambos.

507
00:42:23,180 --> 00:42:28,380
Nos vemos muy pronto para hablar de inteligencia artificial y para hablar de este caso.

508
00:42:28,380 --> 00:42:29,380
Un placer.

509
00:42:29,380 --> 00:42:30,380
Hay un podcast también por ahí.

510
00:42:30,380 --> 00:42:31,380
Sería interesante hacer una mesa.

511
00:42:31,380 --> 00:42:32,380
Fantastico.

512
00:42:32,380 --> 00:42:33,380
Muy bien.

513
00:42:33,380 --> 00:42:34,380
Para oídos curiosos.

514
00:42:34,380 --> 00:42:40,100
¿De qué va el dato para arrancar la semana, Vivi?

515
00:42:40,100 --> 00:42:44,620
Hoy, 8 de julio es el día mundial de la alergia y bueno, traigo varios datos curiosos, pero

516
00:42:44,620 --> 00:42:48,300
cualquier alimento puede causar alergia, pero únicamente ocho alimentos son los causantes

517
00:42:48,300 --> 00:42:50,820
del 90 por ciento de las alergias alimenticias.

518
00:42:50,820 --> 00:42:55,580
Estos son leche, huevo, mariscos, soya, trigo, nueces, pescado y cacahuates.

519
00:42:55,580 --> 00:43:00,300
Ahí y el medicamento que más reacciones alérgicas causa es la penicilina.

520
00:43:00,300 --> 00:43:01,300
Muy bien.

521
00:43:01,300 --> 00:43:05,620
Mantente actualizado con las tendencias en frecuencia.

522
00:43:05,620 --> 00:43:07,300
¿Qué es noticia en México?

523
00:43:07,300 --> 00:43:08,300
¿Qué es tendencia en el país?

524
00:43:08,300 --> 00:43:13,500
Bueno, alito y PRI por lo que ocurrió ayer durante la Asamblea Nacional se aprobó por

525
00:43:13,500 --> 00:43:17,180
mayoría reformas a los estatutos que van a permitir, aunque usted no lo crea, ya a pesar

526
00:43:17,180 --> 00:43:21,060
de los resultados del Partido Revolucionario Institucional, que alito se relija hasta por

527
00:43:21,060 --> 00:43:24,060
dos periodos más, es decir, ocho años.

528
00:43:24,060 --> 00:43:25,060
Frente Cívico Nacional.

529
00:43:25,060 --> 00:43:28,220
Este fin de semana el Frente Cívico Nacional, uno de los impulsores de la llamada María

530
00:43:28,220 --> 00:43:32,620
Rosa, anunció que se realizará una consulta para conformar un nuevo partido político.

531
00:43:32,620 --> 00:43:38,140
Monreal por esta revocación del Tribunal de contar los votos de la Alcaldía Cuauhtémoc.

532
00:43:38,140 --> 00:43:39,140
¿Por qué Monreal?

533
00:43:39,140 --> 00:43:42,700
Bueno, porque la candidata que perdió es Cati Monreal, la hija de Ricardo Monreal,

534
00:43:42,700 --> 00:43:47,580
la ganadora, Alessandra Rojo de la Vega, que al parecer llegará a la Alcaldía.

535
00:43:47,580 --> 00:43:51,260
Lo que está ocurriendo también en Francia, Le Pen y Macron, la izquierda frenó a la

536
00:43:51,260 --> 00:43:54,460
ultraderecha en la segunda vuelta de las elecciones legislativas en Francia.

537
00:43:54,460 --> 00:43:57,740
En segundo lugar quedó el partido del presidente Emmanuel Macron.

538
00:43:57,740 --> 00:44:02,940
Vamos a ver qué pasa en este contexto también político en Francia.

539
00:44:02,940 --> 00:44:05,940
La derecha el fin de semana ha pasado, la izquierda este fin de semana.

540
00:44:05,940 --> 00:44:09,900
Y por supuesto todo lo que ocurrió en Texas por Beryl que tocó tierra esta madrugada

541
00:44:09,900 --> 00:44:11,620
como categoría 1.

542
00:44:11,620 --> 00:44:12,940
Con esto nos vamos.

543
00:44:12,940 --> 00:44:15,540
Muchísimas gracias por habernos acompañado.

544
00:44:15,540 --> 00:44:16,540
Soy Daniel Ditturbide.

545
00:44:16,540 --> 00:44:20,260
Se quedan en compañía de Maxine Woodside, la reina de la radiozoquipo.

546
00:44:20,260 --> 00:44:21,260
Vivi.

547
00:44:21,260 --> 00:44:22,260
Gracias.

548
00:44:22,260 --> 00:44:23,260
Buenos días.

549
00:44:23,260 --> 00:44:24,500
Y nos vamos con Billie Eilish, que también es tendencia.

550
00:44:24,500 --> 00:44:37,500
Hasta mañana.

551
00:44:37,500 --> 00:44:42,300
Esta fue una producción de Grupo Formula.

