1
00:00:00,000 --> 00:00:03,280
de la

2
00:00:00,480 --> 00:00:03,280
actualidad.

3
00:00:03,380 --> 00:00:06,280
Grupo Fórmula, en tu plataforma

4
00:00:04,680 --> 00:00:08,780
de podcast preferida. Detalles

5
00:00:06,340 --> 00:00:11,880
que merecen ser analizados.

6
00:00:08,840 --> 00:00:14,480
Noticias que inspiran, informan

7
00:00:11,960 --> 00:00:16,960
y empoderan. Transparense a la

8
00:00:14,560 --> 00:00:19,660
hora de compartir los sucesos

9
00:00:17,020 --> 00:00:22,160
de la actualidad. Daniel

10
00:00:19,720 --> 00:00:22,160
Ditorbigue, en Fórmula.

11
00:00:22,160 --> 00:00:27,600
Hemos llegado al límite. A un

12
00:00:25,160 --> 00:00:29,100
límite de un mundo dividido en

13
00:00:27,660 --> 00:00:30,660
donde lo que piense o lo que

14
00:00:29,160 --> 00:00:32,200
crea el dejunto es suficiente

15
00:00:30,740 --> 00:00:33,800
para insultarlo, para

16
00:00:32,260 --> 00:00:35,300
descalificarlo, es suficiente

17
00:00:33,880 --> 00:00:36,900
para odiarlo. El que piensa

18
00:00:35,380 --> 00:00:38,380
diferente a nosotros se

19
00:00:36,980 --> 00:00:41,120
convierte en el otro. Y el otro

20
00:00:38,440 --> 00:00:42,640
no importa. El otro incluso nos

21
00:00:41,180 --> 00:00:44,120
parece que vale menos. En el

22
00:00:42,720 --> 00:00:46,620
momento en el que más intentamos

23
00:00:44,180 --> 00:00:48,180
avanzar en inclusión, en

24
00:00:46,680 --> 00:00:49,680
diversidad, y en tolerancia, nos

25
00:00:49,680 --> 00:00:53,880
topamos con la inquebrantable

26
00:00:51,100 --> 00:00:55,180
pared de la división, la

27
00:00:53,940 --> 00:00:57,680
polarización, otra vez, el odio.

28
00:00:55,240 --> 00:00:59,180
Y el odio, el odio nos puede

29
00:00:57,740 --> 00:01:00,580
acabar. Antonio Guterres, el

30
00:00:59,240 --> 00:01:02,020
secretario general de la ONU,

31
00:01:00,660 --> 00:01:03,560
dice que el discurso de odio es

32
00:01:02,080 --> 00:01:05,080
una señal de alarma. Cuanto más

33
00:01:03,620 --> 00:01:06,560
fuerte suena, mayor es la

34
00:01:05,160 --> 00:01:08,160
amenaza del genocidio. También

35
00:01:06,620 --> 00:01:10,160
dice que el discurso de odio

36
00:01:08,220 --> 00:01:11,920
antecede y promueve la

37
00:01:10,220 --> 00:01:13,560
violencia. Pero no. En realidad,

38
00:01:12,000 --> 00:01:16,560
el discurso del odio y el odio

39
00:01:16,560 --> 00:01:23,740
ya es la violencia. Daniel

40
00:01:19,980 --> 00:01:23,740
Litornegue en fórmula

41
00:01:25,580 --> 00:01:29,780
¿Cómo estás, Vivi? Buenos días.

42
00:01:28,040 --> 00:01:30,920
Hola, Dani, muy buenos días,

43
00:01:29,840 --> 00:01:32,920
espero que todos estén muy bien.

44
00:01:30,980 --> 00:01:34,520
Hoy dieciocho de junio es el día

45
00:01:32,980 --> 00:01:36,060
internacional para

46
00:01:34,580 --> 00:01:37,520
contrarrestar el discurso de

47
00:01:36,120 --> 00:01:38,860
odio. Un día proclamado por

48
00:01:37,580 --> 00:01:40,320
Naciones Unidas desde el dos

49
00:01:38,920 --> 00:01:41,860
mil veintiuno, no hace mucho, y

50
00:01:40,400 --> 00:01:43,500
su nombre lo dice todo. Se dice

51
00:01:41,920 --> 00:01:44,700
que el odio ha sido algo

52
00:01:43,560 --> 00:01:46,500
acompañado por la historia

53
00:01:46,500 --> 00:01:50,500
de la nación. El odio pues

54
00:01:48,400 --> 00:01:52,440
sigue buscando una definición y

55
00:01:50,580 --> 00:01:53,840
esto no solo es porque

56
00:01:52,500 --> 00:01:55,380
relativamente reciente, sino

57
00:01:53,900 --> 00:01:56,920
por cómo ha cambiado con el

58
00:01:55,440 --> 00:01:58,420
factor de las redes sociales y

59
00:01:56,980 --> 00:01:59,920
lo difícil que es compararlo

60
00:01:58,480 --> 00:02:01,420
también con la libertad de

61
00:01:59,980 --> 00:02:02,820
expresión. Pero, bueno, Naciones

62
00:02:01,480 --> 00:02:04,420
Unidas lo define como cualquier

63
00:02:02,880 --> 00:02:06,220
tipo de comunicación, ya sea

64
00:02:04,480 --> 00:02:07,920
oral o escrita, en referencia a

65
00:02:06,280 --> 00:02:09,420
una persona o grupo en función

66
00:02:07,980 --> 00:02:10,920
de lo que son. En otras

67
00:02:09,500 --> 00:02:12,920
palabras, basándose en su

68
00:02:11,000 --> 00:02:14,460
religión, en su nacionalidad, en

69
00:02:13,000 --> 00:02:15,960
su raza, en su color, en su

70
00:02:15,960 --> 00:02:19,200
identidad, en que sea diferente,

71
00:02:17,440 --> 00:02:20,800
como lo decíamos. Marco Antonio

72
00:02:19,280 --> 00:02:22,080
Regil hablaba hace unos minutos

73
00:02:20,880 --> 00:02:24,480
y seguramente ustedes lo

74
00:02:22,140 --> 00:02:25,980
estaban oyendo sobre este

75
00:02:24,540 --> 00:02:27,580
discurso machista y este

76
00:02:26,040 --> 00:02:29,920
discurso que también se puede

77
00:02:27,640 --> 00:02:31,520
considerar del odio en contra

78
00:02:29,980 --> 00:02:32,820
de las mujeres, pero el

79
00:02:31,580 --> 00:02:34,320
discurso de odio va mucho más

80
00:02:32,880 --> 00:02:35,760
allá. Y qué momento el que está

81
00:02:34,380 --> 00:02:38,920
viviendo el mundo, por ejemplo,

82
00:02:35,820 --> 00:02:41,400
con el conflicto entre Israel y

83
00:02:39,000 --> 00:02:42,960
Palestina para hablar de este

84
00:02:41,460 --> 00:02:44,400
lastre para la humanidad. Vamos

85
00:02:43,020 --> 00:02:45,900
a platicar con Rodrigo Peña, él

86
00:02:45,900 --> 00:02:48,800
dice que está viviendo una

87
00:02:47,400 --> 00:02:50,480
experiencia y paz del colegio

88
00:02:48,880 --> 00:02:51,840
de México. El Pew Research

89
00:02:50,540 --> 00:02:53,280
Center le preguntó a personas de

90
00:02:51,900 --> 00:02:54,620
todas las nacionalidades si

91
00:02:53,340 --> 00:02:55,380
deberían poder hacer

92
00:02:54,680 --> 00:02:56,820
declaraciones que son ofensivas

93
00:02:55,440 --> 00:02:58,680
para grupos minonitarios de

94
00:02:56,880 --> 00:02:59,780
manera pública. El grupo que

95
00:02:58,740 --> 00:03:01,180
mayormente contestó que sí

96
00:02:59,840 --> 00:03:03,160
fueron los estadounidenses con el

97
00:03:01,260 --> 00:03:04,260
sesenta y siete por ciento, pero

98
00:03:03,220 --> 00:03:05,820
llama la atención que en segundo

99
00:03:04,320 --> 00:03:07,400
lugar, pues lo ocupamos los

100
00:03:05,880 --> 00:03:10,800
latinoamericanos con el cincuenta

101
00:03:07,460 --> 00:03:12,020
por ciento. La famosa digamos

102
00:03:10,860 --> 00:03:13,800
linea entre que es y que no es

103
00:03:12,100 --> 00:03:15,060
libertad de expresión. Va a

104
00:03:15,060 --> 00:03:17,800
ser la primera vez que se

105
00:03:16,260 --> 00:03:19,040
presenta en el debate de los

106
00:03:17,860 --> 00:03:20,000
derechos digitales de la

107
00:03:19,100 --> 00:03:21,900
oficina para México y Centro

108
00:03:20,060 --> 00:03:23,500
América de artículo diecinueve.

109
00:03:21,960 --> 00:03:25,000
Y las redes sociales que juegan

110
00:03:23,580 --> 00:03:26,500
un papel fundamental es si

111
00:03:25,080 --> 00:03:29,180
hablamos de discurso de odio,

112
00:03:26,580 --> 00:03:30,620
porque pensamos que un like o

113
00:03:29,240 --> 00:03:31,820
compartir un post pues no es

114
00:03:30,680 --> 00:03:33,020
peligroso, pero varios

115
00:03:31,880 --> 00:03:34,020
científicos sociales han

116
00:03:33,080 --> 00:03:35,520
observado cómo las publicaciones

117
00:03:34,080 --> 00:03:37,180
en las redes sociales y otros

118
00:03:35,580 --> 00:03:39,120
discursos en línea pueden

119
00:03:37,260 --> 00:03:41,260
inspirar a a actos de violencia

120
00:03:39,180 --> 00:03:42,260
y ser actos de violencia. Por

121
00:03:41,320 --> 00:03:43,500
eso vamos a platicar con Grecia

122
00:03:42,320 --> 00:03:45,020
Macías, ella es abogada en red

123
00:03:45,020 --> 00:03:47,780
y en las semanas y hablaremos

124
00:03:46,620 --> 00:03:49,460
de lo que es noticia, de lo

125
00:03:47,860 --> 00:03:50,820
que es tendencia en México,

126
00:03:49,520 --> 00:03:52,060
todo eso, y mucho más al

127
00:03:50,900 --> 00:03:54,260
regresar de la pausa a la que

128
00:03:52,120 --> 00:03:55,860
nos vamos con música y tapame.

129
00:03:54,320 --> 00:03:57,360
Así es, suena I hate you, I

130
00:03:55,920 --> 00:03:58,800
love you a través del ciento

131
00:03:57,440 --> 00:04:02,300
cuatro punto uno mil quinientos

132
00:04:02,300 --> 00:04:19,320
tres.

133
00:04:20,420 --> 00:04:23,720
La inspiración que necesitas

134
00:04:21,420 --> 00:04:27,220
con Daniel Ditorbide en Fórmula

135
00:04:23,780 --> 00:04:28,620
ya volvemos. Hey, Marca, ya

136
00:04:27,300 --> 00:04:30,100
sé que tú igual nos estás

137
00:04:28,700 --> 00:04:32,100
escuchando, ¿Te interesa

138
00:04:32,100 --> 00:04:35,040
ir a la pausa a la que nos

139
00:04:34,140 --> 00:04:37,080
interesa? Y anúnciate con

140
00:04:35,100 --> 00:04:38,480
nosotros en RSS punto como,

141
00:04:37,140 --> 00:04:40,040
queremos mostrarte cómo llegar

142
00:04:38,540 --> 00:04:42,140
más rápido a tus clientes y

143
00:04:40,100 --> 00:04:44,620
lograr tus metas más rápido.

144
00:04:42,220 --> 00:04:47,120
Escríbenos a ventas arroba RSS

145
00:04:44,680 --> 00:04:50,120
punto com, ventas arroba RSS

146
00:04:47,180 --> 00:04:52,460
punto com. Y sabrás que se

147
00:04:50,180 --> 00:04:55,120
siente estar en boca de todos.

148
00:04:52,520 --> 00:04:57,660
Avanza con la mejor información.

149
00:04:55,200 --> 00:05:00,060
Avanza con la mejor información.

150
00:05:00,060 --> 00:05:05,080
Avanza con la mejor información.

151
00:05:02,340 --> 00:05:06,480
Regresamos. Regresamos once de

152
00:05:05,140 --> 00:05:08,540
la mañana con treinta y nueve

153
00:05:06,540 --> 00:05:10,940
minutos. Hoy estamos hablando

154
00:05:08,620 --> 00:05:12,620
del discurso de odio. Y discurso

155
00:05:11,020 --> 00:05:15,620
de odio son tres palabras pero

156
00:05:12,680 --> 00:05:18,020
que significan un mundo. Y que

157
00:05:15,680 --> 00:05:20,460
tienen muchísimo contexto al

158
00:05:18,080 --> 00:05:22,020
alrededor. Y en este momento en

159
00:05:20,520 --> 00:05:23,960
el que estamos en México, que

160
00:05:22,100 --> 00:05:25,320
vale la pena hablarlo también

161
00:05:24,020 --> 00:05:26,400
en la coyuntura que está

162
00:05:25,400 --> 00:05:28,000
pasando en nuestro país, pero

163
00:05:26,460 --> 00:05:29,500
también en el mundo. Y como las

164
00:05:29,500 --> 00:05:32,400
cosas que se están pasando en

165
00:05:31,000 --> 00:05:33,940
nuestro país y cualquier cosa

166
00:05:32,480 --> 00:05:35,440
que suceda en cualquier parte

167
00:05:34,000 --> 00:05:37,940
del mundo divide y polariza en

168
00:05:35,500 --> 00:05:38,920
otras coordenadas vaya que es

169
00:05:38,020 --> 00:05:40,420
un tema que toma relevancia. Es

170
00:05:38,980 --> 00:05:41,920
un tema que toma relevancia y

171
00:05:40,480 --> 00:05:43,420
lo que a mí me llamó la atención

172
00:05:41,980 --> 00:05:45,860
Dani es que la Asamblea General

173
00:05:43,480 --> 00:05:47,420
de Naciones Unidas pues eh

174
00:05:45,920 --> 00:05:49,220
muestra su preocupación sobre

175
00:05:47,480 --> 00:05:51,460
la propagación y la

176
00:05:49,280 --> 00:05:52,460
proliferación exponencial del

177
00:05:51,520 --> 00:05:54,460
discurso de odio pero esto fue

178
00:05:52,520 --> 00:05:55,960
en el dos mil veintiuno. O sea

179
00:05:54,520 --> 00:05:57,460
no fue hace tanto. Y el día

180
00:05:56,020 --> 00:05:59,440
mundial para contrarrestar el

181
00:05:59,440 --> 00:06:01,960
discurso de odio que se dice

182
00:06:01,340 --> 00:06:03,400
Naciones Unidas, pero estamos

183
00:06:02,040 --> 00:06:04,940
hablando del dos mil veintiuno,

184
00:06:03,460 --> 00:06:06,840
fue hace relativamente poco.

185
00:06:05,000 --> 00:06:08,440
¿Cómo ha cómo ha aumentado esto

186
00:06:06,900 --> 00:06:09,600
en los últimos años, ¿No?

187
00:06:08,500 --> 00:06:10,580
Bueno, Marta Tudón es oficial

188
00:06:09,680 --> 00:06:11,380
del programa de derechos

189
00:06:10,640 --> 00:06:12,880
digitales de la oficina para

190
00:06:11,440 --> 00:06:14,340
México y Centroamérica de

191
00:06:12,940 --> 00:06:15,440
artículo diecinueve, bienvenida,

192
00:06:14,420 --> 00:06:16,780
bienvenida, Marta. Muchísimas

193
00:06:15,520 --> 00:06:17,820
gracias por el espacio. Y

194
00:06:16,840 --> 00:06:19,320
Rodrigo Peñas, director

195
00:06:17,880 --> 00:06:20,880
ejecutivo del seminario sobre

196
00:06:19,380 --> 00:06:22,380
violencia y paz del colegio de

197
00:06:20,960 --> 00:06:23,860
México, Rodrigo, bienvenido.

198
00:06:22,460 --> 00:06:25,860
Muchísimas gracias. Eh, yo para

199
00:06:23,920 --> 00:06:27,360
escribir, para redatar la

200
00:06:25,920 --> 00:06:28,820
editorial con la que todas las

201
00:06:28,820 --> 00:06:32,200
personas están, expresar en

202
00:06:30,360 --> 00:06:33,800
pocas palabras lo que es

203
00:06:32,260 --> 00:06:35,400
discurso de odio, y es tan

204
00:06:33,860 --> 00:06:37,760
amplio, y es tan grande, y tiene

205
00:06:35,460 --> 00:06:40,100
tanta ramificaciones hoy día

206
00:06:37,840 --> 00:06:41,580
que me fue imposible. ¿Por qué

207
00:06:40,180 --> 00:06:43,300
no tratamos en estos primeros

208
00:06:41,640 --> 00:06:45,540
minutos de entender qué es y

209
00:06:43,380 --> 00:06:47,080
qué no es discurso de odio?

210
00:06:45,600 --> 00:06:48,780
Marta. Claro, creo que es

211
00:06:47,140 --> 00:06:50,080
importante primero llegar, es

212
00:06:48,840 --> 00:06:51,280
normal, digamos, que no hayas

213
00:06:50,140 --> 00:06:53,180
podido conceptualizarlo, porque

214
00:06:51,340 --> 00:06:54,580
no existe una, un concepto

215
00:06:53,240 --> 00:06:55,580
consensuado en el ámbito

216
00:06:54,660 --> 00:06:57,220
internacional de derechos

217
00:06:55,660 --> 00:06:58,120
humanos, ni siquiera en el

218
00:06:58,120 --> 00:07:00,500
ámbito europeo-africano. No

219
00:06:59,160 --> 00:07:03,560
existe. Y hay una razón por la

220
00:07:00,560 --> 00:07:05,140
cual no existe. Al final, eh,

221
00:07:03,640 --> 00:07:06,840
el discurso de odio es uno que

222
00:07:05,200 --> 00:07:07,540
no está protegido, digamos, en

223
00:07:06,900 --> 00:07:09,400
el marco de la libertad de

224
00:07:07,600 --> 00:07:10,880
expresión, pero cuando quieres

225
00:07:09,480 --> 00:07:12,480
afianzar que algo no está

226
00:07:10,940 --> 00:07:14,040
protegido, es imposible

227
00:07:12,540 --> 00:07:15,540
aplicarlo para todos lados, ¿no?

228
00:07:14,100 --> 00:07:17,040
Porque lo que quizás pueda

229
00:07:15,620 --> 00:07:18,520
llegar a causar una afectación

230
00:07:17,120 --> 00:07:20,120
directa a ciertas personas, a

231
00:07:18,580 --> 00:07:21,520
un grupo vulnerable, a cierta

232
00:07:20,180 --> 00:07:23,020
población en Europa, va a ser

233
00:07:21,580 --> 00:07:24,620
muy diferente a lo que pueda

234
00:07:23,080 --> 00:07:27,020
llegar a causar cierto discurso,

235
00:07:27,020 --> 00:07:31,060
¿no? En México, ¿no? En Brasil,

236
00:07:29,460 --> 00:07:32,660
en Colombia, es diferente.

237
00:07:31,140 --> 00:07:35,660
Entonces, discurso de odio,

238
00:07:32,740 --> 00:07:37,140
digamos, es un espectro de, eh,

239
00:07:35,740 --> 00:07:38,780
declaraciones que pueden o no

240
00:07:37,200 --> 00:07:39,980
estar protegidas en el marco de

241
00:07:38,840 --> 00:07:41,080
la libertad de expresión,

242
00:07:40,040 --> 00:07:43,040
dependiendo de lo grave que

243
00:07:41,140 --> 00:07:45,440
sean. Y también dependiendo de

244
00:07:43,100 --> 00:07:47,220
que haya una intencionalidad de

245
00:07:45,520 --> 00:07:49,920
causar daño que realmente se

246
00:07:47,280 --> 00:07:52,320
pueda materializar, un daño

247
00:07:49,980 --> 00:07:54,260
físico a la dignidad, un daño

248
00:07:52,380 --> 00:07:55,780
que sea irreversible para las

249
00:07:55,780 --> 00:07:59,080
personas que tienen las

250
00:07:57,380 --> 00:08:00,480
características que les

251
00:07:59,160 --> 00:08:01,560
identifiquen o por las que se

252
00:08:00,560 --> 00:08:02,960
autoascriban las personas.

253
00:08:01,620 --> 00:08:04,460
Básicamente eso es, pero

254
00:08:03,020 --> 00:08:05,400
siempre para determinar el

255
00:08:04,520 --> 00:08:06,800
discurso que debe de estar

256
00:08:05,460 --> 00:08:08,300
prohibido y no estar prohibido,

257
00:08:06,860 --> 00:08:10,660
el que debe de estar prohibido

258
00:08:08,360 --> 00:08:12,660
es el que hay un nexo causal

259
00:08:10,720 --> 00:08:14,240
directamente vinculable entre

260
00:08:12,740 --> 00:08:16,260
la expresión misma y el daño

261
00:08:14,300 --> 00:08:18,340
que se genera. Ya, ya. Eh,

262
00:08:16,340 --> 00:08:19,780
¿dónde está la línea entre

263
00:08:18,400 --> 00:08:21,200
prohibición y libertad de

264
00:08:19,840 --> 00:08:22,140
expresión en este sentido,

265
00:08:21,280 --> 00:08:23,940
Rodrigo? La verdad es que es

266
00:08:22,200 --> 00:08:25,540
una línea tenue y es cada vez

267
00:08:25,540 --> 00:08:29,020
más difícil por por la

268
00:08:27,060 --> 00:08:30,720
importancia del contexto. Eh,

269
00:08:29,080 --> 00:08:33,500
hay contextos, por ejemplo,

270
00:08:30,780 --> 00:08:35,400
el europeo, donde la violencia

271
00:08:33,560 --> 00:08:36,060
contra comunidades judías, por

272
00:08:35,460 --> 00:08:38,120
ejemplo, es particularmente

273
00:08:36,120 --> 00:08:39,000
importante, sensible, no que en

274
00:08:38,200 --> 00:08:40,500
otros lados no lo sea, pero hay

275
00:08:39,060 --> 00:08:42,060
mucha más sensibilidad por

276
00:08:40,560 --> 00:08:44,200
razones históricas, por el

277
00:08:42,140 --> 00:08:44,800
peso de incluso de la

278
00:08:44,260 --> 00:08:46,400
investigación que se ha hecho

279
00:08:44,860 --> 00:08:49,780
sobre fenómenos. Dicho eso,

280
00:08:46,480 --> 00:08:51,840
eh, cada vez va siendo más

281
00:08:49,840 --> 00:08:54,200
difícil definir la línea porque

282
00:08:51,900 --> 00:08:55,020
choca precisamente justo en

283
00:08:55,020 --> 00:09:00,300
es fundamental que la libertad de expresión. El daño y la ofensa, digamos, a la dignidad

284
00:09:00,300 --> 00:09:04,620
de la otra persona es fundamental al respecto. Y no solamente a la otra persona, sino a

285
00:09:04,620 --> 00:09:09,740
otra comunidad, una identidad distinta, en fin. Estos son los parámetros que nos permiten

286
00:09:09,740 --> 00:09:15,100
ir orientando en qué medida el discurso de odio se va configurando efectivamente como

287
00:09:15,100 --> 00:09:20,300
algo dañino. Para nosotros en particular, desde el seminario en el Colegio de México,

288
00:09:20,300 --> 00:09:24,980
lo que hemos intentado es encontrar la violencia. Y de qué manera esa violencia desde el discurso

289
00:09:24,980 --> 00:09:29,820
desde las palabras, desde las narrativas, generan un daño importante al respecto.

290
00:09:29,820 --> 00:09:35,220
Un ejemplo reciente y cercano es lo que ocurrió, un ejemplo reciente y cercano en esta división

291
00:09:35,220 --> 00:09:39,900
entre libertad de expresión y prohibición, es lo que sucedió en las universidades en Estados Unidos,

292
00:09:39,900 --> 00:09:45,220
¿no? Con este grupo de estudiantes manifestándose en contra de la ofensiva israelí en Gaza,

293
00:09:45,220 --> 00:09:51,780
con un discurso que podría rayar en el antisemitismo y la decisión de las autoridades

294
00:09:51,780 --> 00:09:55,580
en Estados Unidos de contener esas manifestaciones, reprimirlas.

295
00:09:55,580 --> 00:10:00,940
Es un gran ejemplo porque no solamente la confrontación de derechos, también es la

296
00:10:00,940 --> 00:10:06,140
posibilidad de que esa confrontación paradójicamente provoque más discurso de odio, porque en efecto se

297
00:10:06,140 --> 00:10:11,940
generan encuentros entre los distintos y en última instancia lo que termina generando es violencia

298
00:10:11,940 --> 00:10:18,020
desde la comunicación directa o las ofensas directas y violencia a veces derivada de esa

299
00:10:18,020 --> 00:10:22,180
comunicación, es una violencia incremental, es un tema con el discurso de no solamente la

300
00:10:22,180 --> 00:10:25,780
violencia inmediata sino la violencia que produce a posteriori después.

301
00:10:25,780 --> 00:10:33,860
Para que sea considerado discurso de odio, Marta, ¿el grupo ofendido debe tener una

302
00:10:33,860 --> 00:10:38,900
condición de vulnerabilidad de, digamos, no sé si es un término correcto incluso,

303
00:10:38,900 --> 00:10:41,980
pero de inferioridad ante quien lo está ofendiendo?

304
00:10:41,980 --> 00:10:47,100
Más bien tiene que haber una condición de opresión y de privilegio, ¿no? O sea,

305
00:10:47,100 --> 00:10:51,540
porque es diferente, o sea, por eso importa el contexto, por eso precisamente importa el

306
00:10:51,540 --> 00:10:58,580
contexto, para que ese discurso de odio tiene que ser los rondiña en el contexto que eran

307
00:10:58,580 --> 00:11:04,060
personas musulmanas que fueron, no personas cristianas, que fueron asediadas y asesinadas,

308
00:11:04,060 --> 00:11:09,020
no, eso fue un discurso de odio. Otros momentos las personas musulmanas son quienes son asediadas,

309
00:11:09,020 --> 00:11:13,220
es decir, no es una condición misma solamente por existir, sino que se da en un determinado

310
00:11:13,220 --> 00:11:19,420
contexto, personas que son indígenas, mujeres, personas racializadas, afrodescendientes, LGBT,

311
00:11:19,420 --> 00:11:23,620
dependiendo de dónde estás colocada o colocado en el mundo, es donde puede llegarse a dar,

312
00:11:23,620 --> 00:11:30,420
por tu característica, algo que te oprima y que por lo tanto quieran aplastarte como minoría,

313
00:11:30,420 --> 00:11:35,340
¿no? Como mayoría, pero oprimida. Vaya micrófono que le ha dado al discurso

314
00:11:35,340 --> 00:11:40,060
de odio las redes sociales, Grecia Macías, ella es, la presentábamos abogada en la red de

315
00:11:40,060 --> 00:11:52,020
defensa de los derechos digitales. Buenos días también para ti. Grecia. Creo que tiene el

316
00:11:52,020 --> 00:11:55,100
micrófono silenciado, Grecia no pudo estar de forma presencial con nosotros.

317
00:11:55,100 --> 00:11:57,940
Perdón, es que no estoy escuchando desde hace rato, pero.

318
00:11:57,940 --> 00:12:03,340
No, al contrario, te preguntaba que vaya micrófono o en qué tamaño de micrófono se han convertido

319
00:12:03,340 --> 00:12:11,100
los medios digitales, los medios sociales para crecer el discurso de odio en muchos casos.

320
00:12:11,100 --> 00:12:18,380
Claro, bueno, como ya mencionaron, sí hay distintas formas en las que se puede entender

321
00:12:18,380 --> 00:12:25,480
el discurso de odio, si bien las plataformas han sido simplemente como un micrófono más grande,

322
00:12:25,480 --> 00:12:30,740
no que esté en cual existido antes, solamente se ha tenido este efecto de la viralidad,

323
00:12:30,740 --> 00:12:36,380
la inmediatez con la que se puede reproducir. Entonces, obviamente, con las plataformas

324
00:12:36,380 --> 00:12:45,380
hemos visto cuando estos grupos discriminan o buscan estigmatizar a ciertos grupos en

325
00:12:45,380 --> 00:12:51,020
situación de vulnerabilidad en específico, en las plataformas, básicamente es un algoritmo

326
00:12:51,020 --> 00:12:58,460
que te va enseñando lo que tú vas retorlimentando. Si tú le das like a las cosas discriminatorias,

327
00:12:58,460 --> 00:13:04,620
te van a salir más comunes que en otras. Luego, la forma en la que se modera contenido

328
00:13:04,620 --> 00:13:12,580
es más o menos funcione de una forma en la que te van alimentando lo que vas tú consumiendo.

329
00:13:12,580 --> 00:13:18,820
Ahora, hay que ser muy cuidadosos con las plataformas, como las cuando hablamos de gobernancia

330
00:13:18,820 --> 00:13:25,580
en Internet y moderación de contenidos, porque como bien han explicado, pues todo el tema

331
00:13:25,580 --> 00:13:31,420
de discursos de odio en general, el que puede ser restringido por la libertad de expresión,

332
00:13:31,420 --> 00:13:35,140
el que puede ser restringido, el que no está protegido por la libertad de expresión o

333
00:13:35,140 --> 00:13:40,780
el que incluso es legítimo pero no deja de ser estigmatizante, pues hay que tener mucho

334
00:13:40,780 --> 00:13:48,900
cuidado porque se han ofrecido soluciones muy intuitivas, pero no son la correcta, donde

335
00:13:48,900 --> 00:13:56,700
han querido que no se pueda censurar este tipo de contenido con criterios super ambivos,

336
00:13:56,700 --> 00:14:05,100
con criterios super poco transparentes. Entonces, esto lo que ha llevado es que las plataformas

337
00:14:05,100 --> 00:14:12,220
hayan empezado a generar una sobremoderación, una sobresensura de ciertos discursos, y esto

338
00:14:12,220 --> 00:14:17,380
ha terminado incluso en la censura de grupos vulnerables a los que se suponen que estamos

339
00:14:17,380 --> 00:14:21,100
buscando proteger. Grecia, qué bueno que mencionas el tema

340
00:14:21,100 --> 00:14:25,620
de la censura, perdón que te interrumpa, pero me llama la atención en el documento

341
00:14:25,620 --> 00:14:32,580
que tengo, como después de que Elon Musk, ahora dueño de Twitter, bueno, antes Twitter,

342
00:14:32,580 --> 00:14:39,860
ahora X, me llama la atención cómo después de que se convierte en el propietario de X,

343
00:14:39,860 --> 00:14:45,900
empiezan a reactivar cuentas y sobre todo cuentas que estamos hablando de, pues que

344
00:14:45,900 --> 00:14:53,580
hablan obviamente del conflicto en Medio Oriente ahora que lo estamos viendo y de otros conflictos

345
00:14:53,580 --> 00:14:59,180
alrededor del mundo y que promueven obviamente la violencia. ¿Cómo han visto ustedes este

346
00:14:59,180 --> 00:15:04,340
cambio, sobre todo en esta plataforma, sobre todo en X?

347
00:15:04,340 --> 00:15:11,180
Claro, pues sí, como bien, a partir de todo lo que está pasando y el genocidio que está

348
00:15:11,180 --> 00:15:19,700
ocurriendo en Palestina, precisamente han aumentado los discursos de odio hacia la población

349
00:15:19,700 --> 00:15:25,140
palestina y demás, no? No obstante, pues también ha sido complicado porque existen

350
00:15:25,140 --> 00:15:29,620
personas que consideran que, por ejemplo, llamar lo que está pasando, genocidio en

351
00:15:29,620 --> 00:15:35,500
Palestina, es discurso de odio. Por ejemplo, en Meta hay una gran discusión también donde

352
00:15:35,500 --> 00:15:43,500
se quiere decir la palabra del río al mar o la frase del río al mar. Hay grupos de

353
00:15:43,500 --> 00:15:48,020
personas israelíes que están considerando que eso es discurso de odio cuando realmente

354
00:15:48,020 --> 00:15:59,700
es un lema para promover el apoyo a Palestina. La verdad, aparte en X, no hay criterios claros

355
00:15:59,700 --> 00:16:07,100
de moderación o de transparencia. Lo que hemos visto, que igual lamentablemente no

356
00:16:07,100 --> 00:16:14,900
ha sido solo en Twitter o X, sino en Meta y demás, es que sí se han empezado a censurar

357
00:16:14,900 --> 00:16:20,620
voces o a reducir voces, no de las personas, por ejemplo, que están a favor de Israel,

358
00:16:20,620 --> 00:16:27,900
sino más bien de las personas víctimas del genocidio en Gaza cuando publican las imágenes

359
00:16:27,900 --> 00:16:32,700
de guerra y demás. En vez de promover este tipo de contenidos para mostrar lo que está

360
00:16:32,700 --> 00:16:39,420
pasando, muchas veces son censurados mientras tanto se alimenta el otro tipo de narrativa

361
00:16:39,420 --> 00:16:45,820
anti-Palestina y demás. Entonces, de hecho, este conflicto es muy importante para justo

362
00:16:45,820 --> 00:16:50,500
entender lo importante que también son otros estándares y que no es tan fácil solamente

363
00:16:50,500 --> 00:16:57,820
establecer una única forma de definir discurso de odio porque muchas veces tiende a hacer

364
00:16:57,820 --> 00:17:02,300
bastante ambigua y parcial a la persona que la está definiendo.

365
00:17:02,300 --> 00:17:06,020
Sí, digamos que en el caso de este conflicto en el Medio Oriente es muy claro hacia dónde

366
00:17:06,020 --> 00:17:12,180
van las cosas. Pero decías, Marta, decían Rodrigo y tú, Marta, que para entender el

367
00:17:12,180 --> 00:17:16,660
discurso de odio se debe de entender el contexto. Y mi siguiente pregunta va en relación a

368
00:17:16,660 --> 00:17:23,300
¿hay discursos de odio que en todos los contextos existen en la violencia contra las mujeres?

369
00:17:23,300 --> 00:17:25,740
¿Es violencia, es discurso de odio?

370
00:17:25,740 --> 00:17:30,820
Puede llegar a ser. Yo creo que lo importante, creo que muchas veces intenta conceptualizar

371
00:17:30,820 --> 00:17:36,420
o llegar como al fondo del tema intentando decir dónde está el límite de la libertad

372
00:17:36,420 --> 00:17:40,180
de expresión, ¿no? Cuando quizás la mirada tendría que ser diferente. ¿Para qué existe

373
00:17:40,180 --> 00:17:45,780
la libertad de expresión? Sobre todo en el sistema interamericano, les comparto a ustedes

374
00:17:45,780 --> 00:17:49,620
y también a toda la audiencia que es uno de los sistemas que más protege la libertad

375
00:17:49,620 --> 00:17:54,820
de expresión por toda la historia de dictaduras que ha existido en la región. Entonces, todo

376
00:17:54,820 --> 00:17:59,580
lo que tenga que ver con grupos que podamos salir a las calles, manifestarnos por nuestras

377
00:17:59,580 --> 00:18:04,880
ideas, encontrarlas, lo protege. Todas las ideas, todas las expresiones que puedan llegar

378
00:18:04,880 --> 00:18:09,140
a ser ofensivas, que puedan incluso llegar a ser estigmatizantes, que puedan llegar a

379
00:18:09,140 --> 00:18:15,020
ser tontas en cierta medida, están protegidas en el marco de la libertad de expresión porque

380
00:18:15,020 --> 00:18:20,260
precisamente ayudan a que podamos ver las diferentes perspectivas y la pluralidad. Existen

381
00:18:20,260 --> 00:18:26,380
discursos misóginos que pueden llegar a tener consecuencias irreversibles para la vida de

382
00:18:26,380 --> 00:18:30,420
las mujeres y se tienen que atender. Pueden llegar a contextualizarse como discurso de

383
00:18:30,420 --> 00:18:35,620
odio, sobre todo en sociedades como las nuestras patriarcales, misóginas, opresivas, sí pueden

384
00:18:35,620 --> 00:18:41,600
llegar a ser de la manera más grave. Lo que sí se necesita, o sea, indistintamente

385
00:18:41,600 --> 00:18:46,340
de cómo nos aproximemos al tema, es que los discursos polarizantes no tienen que ignorarse.

386
00:18:46,340 --> 00:18:51,180
O sea, por años entonces las autoridades, todas hemos estado viendo como existen este

387
00:18:51,180 --> 00:18:55,180
tipo de discursos que nos estigmatizan. No alguien no tiene que llegar a prohibirlo,

388
00:18:55,180 --> 00:18:59,060
sea del Estado, sea de las plataformas. Hay otras políticas que se tienen que instaurar

389
00:18:59,060 --> 00:19:04,940
a un reconocimiento. Por ejemplo. Por ejemplo. Por ejemplo, educativas de reacciones, por

390
00:19:04,940 --> 00:19:10,060
ejemplo, si ya hay delitos establecidos para el acoso, para la estigmatización, etcétera,

391
00:19:10,060 --> 00:19:13,180
puedes ir a un ministerio público pero que no te revictimicen porque eso también tiene

392
00:19:13,180 --> 00:19:17,300
que ver con la manera. No todo tiene que ser delito y no todo tiene que estar prohibido.

393
00:19:17,300 --> 00:19:21,340
Es decir, hay otras cosas que se pueden ir creando, cuestionándonos como este espacio

394
00:19:21,340 --> 00:19:25,980
donde nos podemos empezar a cuestionar por qué algo quizás deba estar prohibido y si

395
00:19:25,980 --> 00:19:30,060
no está prohibido, como quiera tenderlo, no hacer que, o sea, taparnos los ojitos y

396
00:19:30,060 --> 00:19:34,020
fingir que las cosas están bien como sociedad. ¿Coincide, Rodrigo?

397
00:19:34,020 --> 00:19:41,780
Sí, totalmente. Destaco particularmente sobre lo que planteas, Marta, el tema de la polarización.

398
00:19:41,780 --> 00:19:45,220
El tema de la polarización tiene un vínculo particularmente importante con el discurso

399
00:19:45,220 --> 00:19:50,540
de odio porque cierra canales de comunicación. No nos permite escucharnos a pesar de que

400
00:19:50,540 --> 00:19:55,620
hay mucho ruido, hay digamos palabras, hay por supuesto insultos, etcétera, pero esta

401
00:19:55,620 --> 00:20:00,700
esa comunicación en realidad no termina por afianzar un entendimiento entre el distinto

402
00:20:00,700 --> 00:20:03,460
o el diferente. Es el otro y el otro no tiene por qué tener

403
00:20:03,460 --> 00:20:05,340
parte en tu vida, ¿no? Exacto.

404
00:20:05,340 --> 00:20:08,420
Y no tienes por qué siquiera respetarlo a veces.

405
00:20:08,420 --> 00:20:14,100
Exactamente. Recién hablabas del caso de las universidades en Estados Unidos, Daniel.

406
00:20:14,100 --> 00:20:17,940
Ese es uno de los ejemplos más interesantes porque la experiencia del encuentro con el

407
00:20:17,940 --> 00:20:22,300
otro suele ser incómoda, porque el otro es distinto, porque piensa diferente, porque

408
00:20:22,300 --> 00:20:27,940
ve el mundo de otra forma. Pero necesitamos acercarnos con el otro y la otra, por supuesto,

409
00:20:27,940 --> 00:20:33,180
y entendernos y en esa medida construir puentes de entendimiento que se logran con comunicación.

410
00:20:33,180 --> 00:20:38,340
El discurso de odio y la polarización es comunicación que en realidad cierra las posibilidades

411
00:20:38,340 --> 00:20:40,860
de entendimiento. Y vaya que valía la pena hablar de este tema

412
00:20:40,860 --> 00:20:44,940
particularmente en este año y en el contexto que estamos viviendo por lo que está sucediendo

413
00:20:44,940 --> 00:20:49,460
en la misma sociedad mexicana, en las familias, en los grupos de amigos. Después de la jornada

414
00:20:49,460 --> 00:20:52,780
electoral de eso hablamos al regresar de la pausa a la que nos vamos con música.

415
00:20:52,780 --> 00:20:56,700
Gracias. Esta es una colaboración de J Balvin y Bad Bunny. Esto se titula Odio a través

416
00:20:56,700 --> 00:21:09,580
del 104.1 y 1500 de Tor Radio.

417
00:21:26,700 --> 00:21:44,620
Son las 12, regresamos. Grecia, ¿qué hacer como usuarios y como usuarias de redes sociales,

418
00:21:44,620 --> 00:21:50,020
de medios sociales, de cualquier plataforma digital para desde nuestro mundito, con nuestros

419
00:21:50,020 --> 00:21:57,540
pocos o muchos seguidores, desde nuestra realidad, tratar de ponerle un freno al enorme discurso

420
00:21:57,540 --> 00:22:05,540
de odio que hay y que las redes sociales permiten? Claro. Bueno, primero, partero dos cosas.

421
00:22:05,540 --> 00:22:12,580
Primero, sí, como lo mencionaba Marta, sí hay responsabilidades estatales, incluso de

422
00:22:12,580 --> 00:22:16,300
las responsabilidades estatales para poder limitar el discurso de odio también es que

423
00:22:16,300 --> 00:22:20,900
los mismos autoridades no emitan este tipo de discursos de odio, que es lamentablemente

424
00:22:20,900 --> 00:22:27,940
una tendencia que vemos en América Latina. Ahora, sin excluir la responsabilidad de las

425
00:22:27,940 --> 00:22:31,540
autoridades también es importante hablar sobre una herramienta que a mí en lo personal

426
00:22:31,540 --> 00:22:37,100
me gusta mucho para combatir el discurso de odio. ¿Qué es el contradiscurso? El contradiscurso

427
00:22:37,100 --> 00:22:44,340
básicamente es responderle a una forma de poder responder y desmantelar a estos discursos

428
00:22:44,340 --> 00:22:52,020
de odio estigmatizantes y demás. Esto básicamente es, si bien puedes tú dar esos discursos

429
00:22:52,020 --> 00:22:57,180
de odio estigmatizantes, bueno, yo puedo también contestarte y señalar que esos discursos

430
00:22:57,180 --> 00:23:03,580
son discriminatorios, empezar a generar esta contranarrativa que combata estos discursos

431
00:23:03,580 --> 00:23:08,020
odios desde la raíz. Eso, por ejemplo, lo hemos visto muy bien cuando con distintas

432
00:23:08,020 --> 00:23:14,300
formas en las que ha habido expresiones machistas y en general la sociedad empieza a contestar

433
00:23:14,300 --> 00:23:20,300
esas y a reprochar esas expresiones machistas. Lo hemos visto en Twitter, cuando alguien

434
00:23:20,300 --> 00:23:25,740
saca un comentario estigmatizando a la mujer, muchas personas le contestan y eso empieza

435
00:23:25,740 --> 00:23:31,980
a generar estas narrativas que van atacando de raíz estos sistemas de opresión. Porque

436
00:23:31,980 --> 00:23:37,020
recordemos muchos de los discursos de odio están intrínsecamente relacionados con esta

437
00:23:37,020 --> 00:23:42,340
discriminación y con todos estos sistemas de opresión que permean la sociedad. Entonces,

438
00:23:42,340 --> 00:23:45,980
no hay una solución única para poder decir, bueno, apago la computadora y ya no voy a

439
00:23:45,980 --> 00:23:51,540
ver nada. Más bien es buscar estas formas de poder ir desmantelando poco a poco este

440
00:23:51,540 --> 00:23:56,260
discurso de odio. Pero sí creo y no sé si ustedes, Rodrigo, Marta, coincidan conmigo

441
00:23:56,260 --> 00:24:01,180
en entender que como usuarios de redes sociales, insisto, con diez seguidores o con cientos

442
00:24:01,180 --> 00:24:06,900
de miles tenemos una responsabilidad. Y cuando tú likeas un comentario, cuando tú lo abres,

443
00:24:06,900 --> 00:24:10,420
cuando tú lo respondes, incluso para decir que estás en contra, lo vas amplificando,

444
00:24:10,420 --> 00:24:16,420
lo vas ampliando. Cuando tú recibes un meme agresivo hacia un grupo, hacia una persona

445
00:24:16,420 --> 00:24:21,380
y lo reenvías de broma, jajaja, jijiji, lo estás amplificando, estás siendo parte del

446
00:24:21,380 --> 00:24:27,820
discurso de odio, ¿cierto? Creo que es importante mencionar primero, a ver, el discurso polarizante,

447
00:24:27,820 --> 00:24:31,940
el discurso ofensivo es diferente al discurso de odio. O sea, todo lo que hemos estado quizás

448
00:24:31,940 --> 00:24:36,340
hablando puede llegar a atender al discurso polarizante, por ejemplo, en las elecciones,

449
00:24:36,340 --> 00:24:42,400
las personas candidatas, familias que se encontraban, amistades que se encontraban, eso no se materializa

450
00:24:42,400 --> 00:24:47,740
como discurso de odio. Pero no puede derivar en... Si tú tienes un micrófono tan grande

451
00:24:47,740 --> 00:24:51,020
para que las personas te hagan caso por lo que estás diciendo, estás en un contexto

452
00:24:51,020 --> 00:24:56,700
determinado y puedes, hay una intención en generar daño, por ejemplo, a las personas

453
00:24:56,700 --> 00:25:00,900
académicas y mi micrófono es suficientemente grande, quizás sí puede llegar a ser discurso

454
00:25:00,900 --> 00:25:04,340
de odio. Ahora, ahora todos tenemos un micrófono, por decirlo entre comillas, con las redes

455
00:25:04,340 --> 00:25:07,500
sociales, ¿no? O sea, si tú haces un meme y se lo mandas a tu grupo y tu grupo se lo

456
00:25:07,500 --> 00:25:14,260
manda a otro grupo, se hace algo que ni quien tiene un megáfono en un zócalo lleno, siento

457
00:25:14,260 --> 00:25:21,300
yo, pienso yo. Totalmente. Hace 12, 15 años cuando empezaba Twitter, cuando Twitter tenía

458
00:25:21,300 --> 00:25:26,580
este su primer momento prime, vamos a llamarle, había parte de la discusión académica

459
00:25:26,580 --> 00:25:30,980
que decía, esto es la verdadera plaza pública. Sí, claro. Aquí es donde sí se puede expresar,

460
00:25:30,980 --> 00:25:34,940
escuchar a los que no tienen voz. La verdad es que eso no pasó. Lo que sí ocurrió es

461
00:25:34,940 --> 00:25:39,940
que se convirtió en la gran cantina, en el mejor de los sentidos. Hay demasiadas voces

462
00:25:39,940 --> 00:25:44,660
que se convierten en efecto en ruido y hay momentos en donde esos voces, ese ruido en

463
00:25:44,660 --> 00:25:50,380
efecto construyen narrativas de odio y encuentran sentido en personas que lo reciben y que en

464
00:25:50,380 --> 00:25:54,340
efecto lo replican, lo retuitean y se amplifican. Vamos a seguir hablando de esto al regresar

465
00:25:54,340 --> 00:26:13,380
de la pausa. Este bloque es muy breve. Volvemos. La inspiración que necesitas con Daniel

466
00:26:13,380 --> 00:26:29,660
de Turbide en Fórmula. Los espero en juntos. Te saluda Jaime Nuñez. Los espero en juntos,

467
00:26:29,660 --> 00:26:43,860
nuevo Fórmula, abriendo la conversación. Avanza con la mejor información. Con Daniel

468
00:26:43,860 --> 00:26:50,060
de Turbide en Fórmula. Regresamos. Hablábamos, regresamos, hablábamos de, voy a tener que

469
00:26:50,060 --> 00:26:54,780
citarte Rodríguez, la cantina en la que se han convertido algunas plataformas digitales

470
00:26:54,780 --> 00:27:02,620
marcadamente ex en cuanto al ruido que tantas voces y que tanta división ha generado. Te

471
00:27:02,620 --> 00:27:08,140
mantienes en que es una cantina. Sí, es un espacio donde hay demasiadas voces, hay un

472
00:27:08,140 --> 00:27:13,700
exceso de voces, lo que está impidiendo que efectivamente se construya esta plaza pública

473
00:27:13,700 --> 00:27:19,180
donde se delibera, donde se platiga, no, hay gritos y dentro de los gritos la estridencia

474
00:27:19,180 --> 00:27:23,300
predomina y ahí los insultos y el discurso de odio encuentran muy buen espacio porque

475
00:27:23,300 --> 00:27:29,820
en efecto, digamos el discurso de odio es particularmente estridente, se alimenta incluso

476
00:27:29,820 --> 00:27:37,740
de esos elementos discursivos y se replica muy fácilmente. No, y nada más para no dejarlo,

477
00:27:37,740 --> 00:27:44,060
Rodrigo, y se lo preguntaba yo a Grecia porque estoy viendo un estudio que dice que cuando

478
00:27:44,060 --> 00:27:49,580
Elon Musk compra X, todas estas cuentas que obviamente pues el mismo algoritmo de esta

479
00:27:49,580 --> 00:27:55,100
red social como que las eliminaba de inmediato pues ya no las elimina, ¿no? Y entonces ahí

480
00:27:55,100 --> 00:27:59,740
están y es una de las redes sociales en donde más vemos este tipo de discursos por lo

481
00:27:59,740 --> 00:28:05,620
mismo, ¿no? Porque ahorita estaba pensando en Instagram, ¿no? En meta y todas las redes

482
00:28:05,620 --> 00:28:12,320
sociales, cuando tú pones algo, cualquier cosa que puede ser un insulto hasta la misma

483
00:28:12,320 --> 00:28:17,420
red social a veces te borra ese comentario, ¿no? No, pero cuando denuncias un tweet, por

484
00:28:17,420 --> 00:28:21,460
ejemplo, te pone ¿qué consideras que es? Discurso de odio y pones sí, discurso de

485
00:28:21,460 --> 00:28:25,540
odio, porque por cierto las opciones son malísimas, entonces prácticamente todo cabe en discurso

486
00:28:25,540 --> 00:28:29,380
de odio, casi siempre te responden no, no, clasifica en...

487
00:28:29,380 --> 00:28:31,740
El discurso de odio. Pero tú querías continuar con la idea,

488
00:28:31,740 --> 00:28:35,020
Marta. Sí, y también voy al final a retomar esto

489
00:28:35,020 --> 00:28:39,020
que estamos hablando de las empresas. Primero hablando como en una pregunta anterior de

490
00:28:39,020 --> 00:28:43,020
cómo se puede distinguir entre el discurso de odio que siempre va a ser discurso de odio,

491
00:28:43,020 --> 00:28:47,220
creo que un muy buen ejemplo sin irnos fuera del territorio mexicano es precisamente las

492
00:28:47,220 --> 00:28:51,340
declaraciones que vienen por parte de personas funcionarias públicas que tienen un micrófono

493
00:28:51,340 --> 00:28:55,460
gigante y que tienen una bandera que las personas van a seguir.

494
00:28:55,460 --> 00:28:59,500
Personas funcionarias públicas en la mañana. En la mañana, claro, que están dando ciertos

495
00:28:59,500 --> 00:29:05,060
discursos. Podemos tomar el ejemplo que ya hemos estudiado a lo largo de este sexenio

496
00:29:05,060 --> 00:29:10,740
desde artículo 19 que son las declaraciones del presidente, donde no solamente califica,

497
00:29:10,740 --> 00:29:14,700
digamos, el ejercicio periodístico como tal, sino a las propias personas periodistas como

498
00:29:14,700 --> 00:29:18,940
corruptas, mentirosas, no quién es el quién de las mentiras, etcétera. Todo un apartado

499
00:29:18,940 --> 00:29:24,500
para para quizás no desmantelar las ideas, sino para desmantelar a las personas. Eso

500
00:29:24,500 --> 00:29:28,860
puede llegar a tener efectos muy nocivos para el discurso. De hecho, esta semana la Suprema

501
00:29:28,860 --> 00:29:33,340
Corte de Justicia acaba de sacar una sentencia donde habla de la responsabilidad que tienen

502
00:29:33,340 --> 00:29:38,700
las personas funcionarias de no estigmatizar a las personas periodistas porque precisamente

503
00:29:38,700 --> 00:29:43,180
pueden llegar a tener consecuencias devastadoras. Qué mejor ejemplo que lo que pasa en México.

504
00:29:43,180 --> 00:29:47,820
Exactamente. Sí, o sea, el nombre ya pedido, el presidente eh Andrés Manuel López Obrador

505
00:29:47,820 --> 00:29:53,340
ha tenido una tendencia durante todo su gobierno de estigmatizar a la prensa, medios de comunicación,

506
00:29:53,340 --> 00:29:57,700
etcétera. Y digamos que con eso no solo se estigmatiza a las personas, sino el gremio

507
00:29:57,700 --> 00:30:01,660
en su conjunto. Y esto es nocivo para cualquier democracia, no importa donde estés parado.

508
00:30:01,660 --> 00:30:07,580
Muchos coleras eh de los que han sido mencionados sistemáticamente en la mañanera han dicho,

509
00:30:07,580 --> 00:30:12,580
oiga, presidente, me está poniendo un blanco en la cara, ¿no? Con con con tanta polarización,

510
00:30:12,580 --> 00:30:20,380
con tanta división, eh y y y con tantas ideas que usted está planteando o plan o poniendo

511
00:30:20,380 --> 00:30:24,260
en la mente de la gente, me está poniendo en riesgo a mí y a mi familia, ¿no? Y eso

512
00:30:24,260 --> 00:30:29,380
es precisamente lo que condiciona que algo sí sea discurso de odio, que puede tener

513
00:30:29,380 --> 00:30:35,240
eh repercusiones o acciones a partir de. Exacto, porque diferencia de las demás personas que

514
00:30:35,240 --> 00:30:39,420
podemos formar parte de lo que queremos que es una plaza pública o no, porque también

515
00:30:39,420 --> 00:30:44,340
no necesita ser una plaza pública internet. No no nació para eso, nació para poder expresarnos,

516
00:30:44,340 --> 00:30:49,180
para hacernos información, para compartir ideas. Pero las únicas personas que están

517
00:30:49,180 --> 00:30:53,340
en la responsabilidad de tener cuidado con lo que dicen son quienes tienen una investidura

518
00:30:53,340 --> 00:30:58,340
pública. Ellos siempre podemos y a ellas y a ellas podemos exigirles siempre la verdad,

519
00:30:58,340 --> 00:31:03,640
rendición de cuentas y no ejercicio estigmatizante ni discriminatorio ni hostil hacia nadie,

520
00:31:03,640 --> 00:31:07,580
porque su micrófono es demasiado grande. ¿Qué hay de los medios de comunicación?

521
00:31:07,580 --> 00:31:14,060
Y yo en la noche del doce de junio oí a unos comunicadores eh referirse eh de forma muy

522
00:31:14,060 --> 00:31:19,820
despectiva, muy insultante y muy humillante a quienes eh habrían votado por el partido

523
00:31:19,820 --> 00:31:24,740
ganador, a quienes habrían votado por eh la virtual presidenta electa con groserías

524
00:31:24,740 --> 00:31:32,380
eh poniendo un ejemplo, Burdo eh desde mi muy particular punto de vista corriente decía

525
00:31:32,380 --> 00:31:37,380
algo así uno de ellos como en Madrid me encontré a unos nacos acompañados de unas disculpe

526
00:31:37,380 --> 00:31:43,220
en la palabra putitas y esa es la gente que vota por este partido. Eso es un discurso

527
00:31:43,220 --> 00:31:49,340
de odio. No, no. Lo es y hablan justamente de responsabilidades en la lógica de lo que

528
00:31:49,340 --> 00:31:52,900
lo hacía Marta, sin duda funcionarios públicos en primer lugar, yo hablaría también de

529
00:31:52,900 --> 00:31:58,220
las plataformas de redes sociales y los periodistas del grupo, el gremio como tal, también entra

530
00:31:58,220 --> 00:32:03,220
dentro de este espectro de responsabilidad respecto no solo al uso de las redes como

531
00:32:03,220 --> 00:32:07,980
tal, sino al uso del lenguaje en el marco de las redes en contextos específicos. El

532
00:32:07,980 --> 00:32:13,540
periodismo en particular necesita sensibilizarse con particular énfasis, con mucha sensibilidad

533
00:32:13,540 --> 00:32:18,380
sobre cuál es el contexto con lo que empezábamos discutiendo y al hacer esa sensibilización

534
00:32:18,380 --> 00:32:24,660
del contexto, adecuar el discurso, generar una conversación que vaya por canales de

535
00:32:24,660 --> 00:32:29,500
respeto a derechos humanos, de respeto a la dignidad, eh la tentación por el discurso

536
00:32:29,500 --> 00:32:34,580
de odio está y va a estar ahí, pero se espera que particularmente de gremios como el periodismo

537
00:32:34,580 --> 00:32:40,620
o como académicos, por supuesto, eh sirvan para la moderación en el mejor de los sentidos,

538
00:32:40,620 --> 00:32:44,820
¿no? Y que esa moderación en efecto genera una conversación, lo más santa podríamos

539
00:32:44,820 --> 00:32:49,740
decir. Que NACO, botaste portal. Eso es un discurso de odio y eso es algo, no sé si

540
00:32:49,740 --> 00:32:53,460
vieron una película y lo pregunto porque no sé si vieron una película de hace algunos

541
00:32:53,460 --> 00:32:58,420
años tres o cuatro años, en la pandemia salió de Diego Boneta que se llama eh Nuevo

542
00:32:58,420 --> 00:33:04,620
Orden me parece en lo que la polarización en la que la polarización eh del se sitúa

543
00:33:04,620 --> 00:33:11,740
en México en la Ciudad de México en una digamos colonia eh privilegiada y ha sido

544
00:33:11,740 --> 00:33:20,620
tal la polarización eh tan generalizada que eh llegan digamos eh. A un extremo. A un extremo

545
00:33:20,620 --> 00:33:27,260
de llegar a a a matar a quienes están eh o tienen un privilegio y eso es parte de lo

546
00:33:27,260 --> 00:33:32,260
que puede derivar de la polarización, ¿cierto? Sí, sin duda, eh un ejemplo al respecto,

547
00:33:32,260 --> 00:33:37,620
eh la la las dos grandes palabras, no sé si las grandes, pero dos palabras importantes,

548
00:33:37,620 --> 00:33:42,560
Chairo y Fifi. Estas dos palabras no estaban necesariamente en la circulación de la conversación

549
00:33:42,560 --> 00:33:47,380
antes de dos mil diecisiete, dieciséis, por ahí comienzan a insertarse, pero sí existían

550
00:33:47,380 --> 00:33:52,180
al mismo tiempo. Eh Chairo en particular, Fifi tenían su propia explicación en el

551
00:33:52,180 --> 00:33:57,820
marco de un contexto histórico eh pero se toma, no se incorpora en el marco de la polarización

552
00:33:57,820 --> 00:34:02,340
y a partir de ahí empiezan en efecto a insertar discursos y a promover discursos de odio.

553
00:34:02,340 --> 00:34:03,340
Gracias.

554
00:34:03,340 --> 00:34:14,140
Yo. Las cosas que mencionaron, por ejemplo, si bien las palabras que se me fijaron el

555
00:34:14,140 --> 00:34:20,180
dos de cuños sí son discursos estigmatizantes, están protegidas por la libertad de expresión

556
00:34:20,180 --> 00:34:24,980
y el tema de esto es, hay que saber, discursos de odio que no está protegido por libertad

557
00:34:24,980 --> 00:34:30,180
de expresión es una categoría legal. ¿Y qué significa esto? Que puede ser censurado,

558
00:34:30,180 --> 00:34:32,900
que no está protegido por la libertad de expresión. Entonces, hay que tener mucho

559
00:34:32,900 --> 00:34:37,940
cuidado con este tipo de definiciones porque eso solo abre la puerta a como mencionaron

560
00:34:37,940 --> 00:34:43,900
hace rato. Esos filtros de subida que debajan cualquier tipo de palabra al disonante, tampoco

561
00:34:43,900 --> 00:34:48,860
son son de acuerdo a la a la libertad de expresión. De hecho, muchos relatores de libertad de

562
00:34:48,860 --> 00:34:53,420
expresión han criticado precisamente esos filtros porque un número uno, por ejemplo,

563
00:34:53,420 --> 00:35:00,260
¿qué está pasando? Cuando quieres documentar incluso agresiones por parte de otras personas,

564
00:35:00,260 --> 00:35:04,140
no puedes ni siquiera decir tal persona me dijo inserta el mensaje porque se me baja

565
00:35:04,140 --> 00:35:09,140
el contenido. Entonces, hay que ser bien cuidadosos con cómo estamos definiendo el discurso de

566
00:35:09,140 --> 00:35:16,420
odio. Hay que saber distinguir entre discursos estigmatizantes y la responsabilidad que

567
00:35:16,420 --> 00:35:22,600
tienen las personas para no emitir discursos discriminatorios y distinguirlo de el discurso

568
00:35:22,600 --> 00:35:27,420
de odio que no está protegido y que de hecho existe una serie de estándares internacionales

569
00:35:27,420 --> 00:35:32,900
como el plan de rabat que tomar en cuenta todo lo que hemos mencionado, el contexto,

570
00:35:32,900 --> 00:35:37,540
quién lo está emitiendo, qué audiencia tiene y especialmente si es realmente va a llevar

571
00:35:37,540 --> 00:35:42,900
una incitación a la violencia. Para quienes no somos especialistas como ustedes, Grecia,

572
00:35:42,900 --> 00:35:50,740
¿cómo les dirías que son las principales o las tres principales características que

573
00:35:50,740 --> 00:35:58,220
nosotros desde la ciudadanía, siendo ciudadanos a pie, tendríamos que entender, comprender

574
00:35:58,220 --> 00:36:03,380
y saber para distinguir un discurso estigmatizante también reprobable por supuesto de uno de

575
00:36:03,380 --> 00:36:08,180
odio? Te dejo pensar la pausa para que me respondas. 12 con 18 música para mí.

576
00:36:08,180 --> 00:36:12,660
Nos vemos con Taylor Swift, esto se titula Shake It Up, sonando otra vez el 104.1 y 1500

577
00:36:12,660 --> 00:36:36,540
de tu radio.

578
00:36:36,540 --> 00:36:38,000
Avanza con la mejor información.

579
00:36:38,000 --> 00:36:40,300
Avanza con la mejor información.

580
00:36:40,300 --> 00:36:45,300
Daniel Vitor Vive en Fórmula. Regresamos.

581
00:36:45,300 --> 00:36:49,300
Les hacías una pregunta interesante, Vive.

582
00:36:49,300 --> 00:36:54,300
Les hacía una pregunta muy interesante a Rodrigo y a Marta, y Grecia también te la hago a ti.

583
00:36:54,300 --> 00:37:02,300
Y yo les preguntaba en la pausa, ¿quién creen o qué mandatario creen que incita más al discurso de odio?

584
00:37:02,300 --> 00:37:09,300
Y yo les hacía esta comparación entre lo que es Donald Trump en Estados Unidos o el mismo presidente López Obrador en México.

585
00:37:09,300 --> 00:37:11,300
¿Qué opinas, Rodrigo?

586
00:37:11,300 --> 00:37:15,300
Es un preguntón, literalmente.

587
00:37:15,300 --> 00:37:21,300
Yo creo que el presidente Andrés Manuel López Obrador es particularmente eficiente al respecto.

588
00:37:21,300 --> 00:37:25,300
Me preocupa, sin embargo, mucho más el alcance que tiene Trump.

589
00:37:25,300 --> 00:37:36,300
Y no solamente el alcance, sino el impacto por el espacio en el que lo está haciendo, por la relevancia, pues sí, de los Estados Unidos en términos generales e internacionales.

590
00:37:36,300 --> 00:37:46,300
No demerito la eficiencia al respecto tampoco de Trump, pero insisto, me preocupa particularmente el caso de Estados Unidos

591
00:37:46,300 --> 00:37:54,300
porque estamos viendo cosas que no se habían visto prácticamente en casi 250 años de historia en los Estados Unidos.

592
00:37:54,300 --> 00:37:56,300
Exactamente.

593
00:37:56,300 --> 00:37:58,300
Grecia.

594
00:37:58,300 --> 00:38:05,300
Yo creo que estamos olvidando un factor, un tercer candidato a esa categoría que es el presidente de Argentina, Milaí.

595
00:38:05,300 --> 00:38:07,300
También les dije, también les dije Milaí.

596
00:38:07,300 --> 00:38:20,300
Que de hecho ya ha recibido como regaños de la comisión y de la corte interamericana de derechos humanos, precisamente por los discursos discriminatorios.

597
00:38:20,300 --> 00:38:28,300
Incluso hay varios que incitan ya directamente a la violencia y pueden ser categorizados como discursos de odio legalmente.

598
00:38:28,300 --> 00:38:40,300
Sí, yo creo que ese es uno de los presidentes que todos, sin pelos en la boca, avienta los discursos más discriminatorios posibles y habidos por haber.

599
00:38:40,300 --> 00:38:42,300
Y aparte con un micrófono enorme.

600
00:38:42,300 --> 00:38:45,300
Es que qué mundo, en qué mundo, en qué contexto estamos viviendo.

601
00:38:45,300 --> 00:38:51,300
Y en el caso de Milaí, déjame, yo siento que fue lo que lo llevó a la presidencia, ¿no?

602
00:38:51,300 --> 00:39:02,300
Entendiendo un poco el contexto que está viviendo Argentina, pero me parece que Milaí es este discurso y esto que comenta Grecia, pues hizo que llegara a la presidencia de Argentina.

603
00:39:02,300 --> 00:39:04,300
Bueno, pues Trump no está muy al lado de eso.

604
00:39:04,300 --> 00:39:05,300
Marta.

605
00:39:05,300 --> 00:39:07,300
Creo que más, o sea, es el ejemplo perfecto.

606
00:39:07,300 --> 00:39:17,300
Todas estas personas que han llegado a la presidencia y que han, digamos, tenido muchísimas popularidades, precisamente porque sus discursos son incendiarios, ¿no?

607
00:39:17,300 --> 00:39:29,300
Y apelan a la parte más vulnerable, quizás insegura, del grupos que solían ser privilegiados, en el caso particularmente de Argentina y de Estados Unidos, como son los hombres blancos.

608
00:39:29,300 --> 00:39:31,300
Apelas a ese distrito, ¿no?

609
00:39:31,300 --> 00:39:38,300
Apelas a esa población para que te, de cierta manera, les enciendes, ¿no?

610
00:39:38,300 --> 00:39:41,300
Con gasolina y les dices, es que es la culpa del otro, es la culpa del otro.

611
00:39:41,300 --> 00:39:43,300
Y eso es precisamente lo que es preocupante.

612
00:39:43,300 --> 00:39:55,300
Ese puede llegar a ser el discurso que más puede llegar a ser daño porque puede tener una afectación horrible para las personas directamente, ya ni siquiera en el formato democrático, sino en las personas.

613
00:39:55,300 --> 00:40:00,300
Y yo creo que particularmente en el caso de México, lo que vemos es que quizás no sea...

614
00:40:00,300 --> 00:40:06,300
Existe una polarización entre personas, esto que decía Grecia de que no necesariamente es discurso de odio.

615
00:40:06,300 --> 00:40:19,300
Es discurso que está protegido porque son tus tías que están peleándose con tus tíos porque uno quiso votar porque uno se preocupaba por el precio del cilantro y el otro se preocupaba por la magistratura que no le resuelve su demanda de hace diez años, ¿no?

616
00:40:19,300 --> 00:40:32,300
Pero lo que sí es muy evidente en México es que el discurso que sí podemos calificar como tal, que puede llegar a ser incluso muy, muy este...

617
00:40:32,300 --> 00:40:36,300
Como se dice, no congratulable, más bien lo contrario.

618
00:40:36,300 --> 00:40:37,300
Condenable.

619
00:40:37,300 --> 00:40:39,300
Condenable.

620
00:40:39,300 --> 00:40:53,300
Condenable son aquellos que de verdad pueden llegar a ser daño a las disidencias, a las personas que son opositoras en el gobierno, a las personas que exigen rendición de cuentas, a las personas que nos brindan información.

621
00:40:53,300 --> 00:41:16,300
Y es lo que estamos viendo. O sea, cuando me preguntaban al inicio cómo es el discurso que sí se puede calificar como de odio, de una, sí que puedo verlo, lo puedo calificar como tal, es aquel que sí existe en México y que particularmente ha resonado y toman de ejemplo presidentes municipales, jefes de ayuntamiento, etcétera, y que viene del Poder Ejecutivo Federal.

622
00:41:16,300 --> 00:41:28,300
Están absorbiendo ese discurso, lo están multiplicando y de cierta manera es el permiso para asediar, el permiso para agredir a la prensa, para agredir a los medios, para agredir a la oposición.

623
00:41:28,300 --> 00:41:38,300
Y yo creo que esto es muy importante. Yo creo que si podemos salir con algo de todas estas conversaciones es que todo el discurso puede llegar a...

624
00:41:38,300 --> 00:41:41,300
O sea, requiere una respuesta porque indica un malestar social.

625
00:41:41,300 --> 00:41:51,300
Hay discursos que están presentes como aquellos misóginos que como yo digo es una responsabilidad que hasta la fecha no se hayan atendido y que la única respuesta es la punitivista que es inútil con este...

626
00:41:51,300 --> 00:41:56,300
O sea, no, eso es otro tema, pero bueno, eso no es atender el problema. El discurso va a permanecer.

627
00:41:56,300 --> 00:42:10,300
Lo que necesitamos hacer como sociedad es exigir a la nueva presidenta, pero también a los nuevos órganos que van a existir y que se supone que van a ser muchísimo más eficientes, que existan condiciones para que las personas podamos debatir en libertad, aunque haya ruido en las redes.

628
00:42:10,300 --> 00:42:26,300
O sea, porque eso también está permitido. O sea, que existan realmente las condiciones para que todes, minorías, la pluralidad, diversidad, podamos expresarnos y tener manos también en la agenda y que la agenda pública, política no esté cooptada solamente por aquellas personas, pues.

629
00:42:26,300 --> 00:42:33,300
¿Cuáles dirías, Rodrigo, que en México particularmente son los grupos más sujetos a un discurso de odio?

630
00:42:33,300 --> 00:42:43,300
Tiene que ver con lo que contestaba Marta desde el inicio, todos aquellos grupos que están relacionados de forma problemática con el privilegio.

631
00:42:43,300 --> 00:42:56,300
En México hay dos polarizaciones. La polarización histórica, de hecho la próxima presidenta lo reconoció en algún momento y dice que la polarización que hay es la de la marginación, es la de la pobreza. Eso existe, eso sí está.

632
00:42:56,300 --> 00:43:05,300
El tema es que la otra polarización, la que tiene que ver con los discursos de odio, la que tiene que ver con la marginación, está conectada con esa otra polarización.

633
00:43:05,300 --> 00:43:19,300
Eso tiene que ver justamente con, como decíamos, con el contexto y entonces, poblaciones marginadas, poblaciones sujetas de racismo, de clasismo, de misoginia, junto también con minorías desfavorecidas,

634
00:43:19,300 --> 00:43:31,300
son quienes son principales víctimas o focos potenciales victimales, vamos a decir, de estos discursos de odio y junto con ello también los propios perpetradores del discurso de odio,

635
00:43:31,300 --> 00:43:39,300
porque también forman parte de circuitos que terminan perjudicando y en última instancia es un problema integral de la sociedad.

636
00:43:39,300 --> 00:43:51,300
Es decir, sí nos perjudica a todas y todos que haya más discurso de odio y que este discurso de odio sea más permisivo y mucho más legitimado en última instancia, lo que mencionaba Grecia en algún momento también.

637
00:43:51,300 --> 00:44:00,300
La comunidad LGBT, justo en este mes, la comunidad LGBTQI más sujeta y víctima histórica de un discurso de odio, o eso sí es discurso de odio, ¿no?

638
00:44:00,300 --> 00:44:10,300
La cantidad de transfeminicidios, la cantidad de homicidios y feminicidios de los que ha sido víctima de la comunidad, eso es un discurso de odio.

639
00:44:10,300 --> 00:44:20,300
Puede llegar a serlo, o sea, lo que de los transfeminicidios, etcétera, eso son crimen, podían calificar como crimen de odio, que es una figura legal diferente a discurso de odio, pero sí existen, o sea,

640
00:44:20,300 --> 00:44:34,300
no significa que no existan personas, autoridades, por ejemplo, me acuerdo de Quadri cuando era candidato y empezó a decir varias expresiones transfóbicas,

641
00:44:34,300 --> 00:44:43,300
pudiera llegar a calificar porque en ese momento Quadri era una persona muy popular, o sea, creo que no hubo intencionalidad, creo, no sé, nadie lo denunció, no sé,

642
00:44:43,300 --> 00:44:52,300
pero es peligroso y creo que particularmente, y más en el tema LGBT y un poco rescatando lo que decía Grecia,

643
00:44:52,300 --> 00:45:02,300
hace unos años en artículo 19 hicimos una investigación sobre cómo las políticas de moderación de contenidos afectaban más la desigualdad de los grupos que se supone que quería proteger, ¿no?

644
00:45:02,300 --> 00:45:16,300
cómo estaba prohibido la homofobia, cómo estaba prohibido todo, cualquier tipo de discordancia con que pudiera tener una afectación en la comunidad de la diversidad sexogenérica,

645
00:45:16,300 --> 00:45:28,300
y empezamos a ver cómo, por ejemplo, activistas que querían reivindicar las palabras que eran utilizadas para agredirles como Jota, o sea, subían de que siempre Jota, nunca Injota,

646
00:45:28,300 --> 00:45:34,300
que era algo que ellas mismas querían poner y decir yo me voy a nombrar como yo me quiero nombrar, es mi derecho a nombrarme como tal,

647
00:45:34,300 --> 00:45:42,300
y la plataforma se los bajaba, en ese momento era Facebook, pero lo descubrimos también con Instagram, y empiezan a bajar todo tipo de contenidos solamente por las palabras,

648
00:45:42,300 --> 00:45:51,300
sin tener un análisis de contexto, entonces creo que en esto de la responsabilidad que tienen las plataformas también, por eso es muy difícil decir todo,

649
00:45:51,300 --> 00:45:56,300
qué se puede hacer en este momento porque todo depende del contexto, porque quizás yo quiera decir siempre Jota.

650
00:45:56,300 --> 00:45:58,300
¿Qué querías decir Alba Rodero?

651
00:45:58,300 --> 00:46:04,300
No, reafirmar la importancia del contexto y la responsabilidad de las plataformas, un dato rapidísimo,

652
00:46:04,300 --> 00:46:15,300
nosotros trabajamos con Twitter en el seminario en el colegio, desde que lo compra Elon Musk ya no podemos tener acceso a la famosa API, que es una llave que nos permite tener datos,

653
00:46:15,300 --> 00:46:22,300
nos están cerrando los canales también para analizar y para entender el fenómeno, Facebook es distinto, Meta está teniendo esfuerzos interesantes,

654
00:46:22,300 --> 00:46:33,300
TikTok es complicado, necesitamos una responsabilidad compartida de autoridades de varios sectores que permita desde el punto de vista más social, generar una sensibilidad al respecto.

655
00:46:33,300 --> 00:46:40,300
Vamos a regresar con las conclusiones, son las 12.34, hacemos una pausa con Musiquita Como Siempre, Pame, y volvemos.

656
00:46:40,300 --> 00:46:58,300
Odio que no te odio de lazo a través del 104.1 y 1500 de tu radio.

657
00:46:58,300 --> 00:47:03,300
¿Quieres iniciar, hacer crecer o monetizar tu podcast?

658
00:47:03,300 --> 00:47:07,300
Sabes todos los secretos de todos.

659
00:47:07,300 --> 00:47:10,300
¿Dónde y cuándo quieres?

660
00:47:10,300 --> 00:47:17,300
RSS.com, almacenamiento, distribución y programación de tus episodios en un solo lugar.

661
00:47:17,300 --> 00:47:21,300
Hosteado y distribuido por RSS.com.

662
00:47:21,300 --> 00:47:27,300
RSS.com, hacer podcast de manera fácil.

663
00:47:27,300 --> 00:47:31,300
Avanza con la mejor información,

664
00:47:31,300 --> 00:47:35,300
con Daniel Vitorbide en Fórmula.

665
00:47:35,300 --> 00:47:37,300
Regresamos.

666
00:48:05,300 --> 00:48:07,300
Regresamos.

667
00:48:35,300 --> 00:48:37,300
Regresamos.

668
00:49:05,300 --> 00:49:07,300
Regresamos.

669
00:49:35,300 --> 00:49:38,300
Me decías que ninguna porque no hay manera de medirlo.

670
00:49:38,300 --> 00:49:46,300
Sí, en el caso del ex Twitter, nosotros tuvimos la oportunidad de hacer un montón de investigación durante casi tres años

671
00:49:46,300 --> 00:49:48,300
porque teníamos la famosa API, esta llave.

672
00:49:48,300 --> 00:49:57,300
Nosotros tenemos un acercamiento como institución académica, nos dan ese acceso, datos, y por supuesto cuidamos los datos y los trabajamos con rigor.

673
00:49:57,300 --> 00:50:01,300
Cuando el compra Elon Musk, nos cierran la API, pero ¿qué crees?

674
00:50:01,300 --> 00:50:07,300
Cuesta 5.000 dólares al mes, cosa que para una institución pública que somos es impensable, imposible.

675
00:50:07,300 --> 00:50:10,300
Y en el caso de TikTok no lo hemos logrado. Con meta sí.

676
00:50:10,300 --> 00:50:17,300
No ha prosperado como lo tuvimos en su momento con Twitter, esperemos que lo haga.

677
00:50:17,300 --> 00:50:21,300
Pero el caso de X es interesante porque ahí se cerró la ventanilla.

678
00:50:21,300 --> 00:50:23,300
Un poco en esta metáfora. Había ventanilla, ya no hay.

679
00:50:23,300 --> 00:50:25,300
Ya no hay con quién hablar.

680
00:50:25,300 --> 00:50:27,300
¿Qué crees? Paga y X hasta el abro.

681
00:50:27,300 --> 00:50:31,300
Gracias.

682
00:50:31,300 --> 00:50:40,300
Pues mira, justo hace rato por eso empecé a hablar sobre las distintas formas en las que las plataformas moderan discursos de audio.

683
00:50:40,300 --> 00:50:49,300
Yo creo que es importante también para evitar que personas también caigan por semántica, que empresas se deslinden de responsabilidades por temas de semántica como TikTok,

684
00:50:49,300 --> 00:50:56,300
es hablar los plataformas digitales que son y que al fin y al cabo también realizan moderación de este tipo de contenidos.

685
00:50:56,300 --> 00:51:08,300
Obviamente es importante también algo que nosotras desde Sociedad Civil pedimos constantemente es la transparencia por parte de las plataformas para poder acceder a esta información en específico

686
00:51:08,300 --> 00:51:18,300
y poder hacer un recuento de a ver que realmente qué decisiones están tomando respecto de este tipo de discursos estigmatizantes, discriminatorios, de odio, como lo quieran llamar.

687
00:51:18,300 --> 00:51:35,300
Y en especial, ¿cómo se hace esta rendición de cuentas? Al fin y al cabo, por ejemplo, Meta creó este Oversight Board para poder, como este tipo de comité que supervisa las decisiones de moderación de Meta

688
00:51:35,300 --> 00:51:47,300
para poder establecer mejores estándares que quizás tienen estándares propios, por ejemplo, para moderar discursos de audio que son perfectibles de acuerdo a los estándares del Derecho Internacional

689
00:51:47,300 --> 00:51:54,300
de los Derechos Humanos, pero nos orientan a saber qué tipo de decisiones están tomando y si estamos de acuerdo con estas decisiones.

690
00:51:54,300 --> 00:52:04,300
Porque si no, pues básicamente no las plataformas están diciendo que discursos son valiosos. No, eso es muy peligroso también.

691
00:52:04,300 --> 00:52:13,300
Así como tuve problemas para encontrar una definición de discurso de odio para empezar el programa, tenía problemas en plantear una forma de concluir.

692
00:52:13,300 --> 00:52:22,300
Y justo me encontré en Instagram una publicación que habla del día de hoy que termina con lo siguiente. Voy a traducirlo así un poco al vuelo.

693
00:52:22,300 --> 00:52:28,300
Todos tenemos la posibilidad de tomar postura cuando el discurso de odio se trata.

694
00:52:28,300 --> 00:52:35,300
Aunque no seas personalmente la víctima de un discurso de odio, puedes hacer la diferencia.

695
00:52:35,300 --> 00:52:41,300
Y mi pregunta para ustedes tres y a manera de conclusión es ¿cómo podemos hacer la diferencia?

696
00:52:41,300 --> 00:52:47,300
Yo creo que cuestionarnos lo que pensamos, lo que hacemos, lo que decimos.

697
00:52:47,300 --> 00:53:00,300
Básicamente creo que la autocrítica es muy importante cuando es responsabilidad nuestra, pero creo que también es importante señalar que las autoridades, las plataformas tienen responsabilidades.

698
00:53:00,300 --> 00:53:10,300
La primera está sujeta a garantizar nuestros derechos humanos y por el otro lado las plataformas están también de cierta manera obligadas a respetarlos.

699
00:53:10,300 --> 00:53:23,300
No a garantizarlos, sino a respetarlos. Entonces con esa mirada en el mundo, con esa exigencia, podemos aproximarnos a nuestras personas legisladoras, a las personas que nos están representando, a las personas gobernantes,

700
00:53:23,300 --> 00:53:28,300
pero también a las plataformas digitales para reclamar esto porque ponen atención.

701
00:53:28,300 --> 00:53:33,300
Ponen atención a los números en el caso de las plataformas digitales y quizá también las personas en el gobierno.

702
00:53:33,300 --> 00:53:40,300
Gracias.

703
00:53:40,300 --> 00:53:49,300
Perdón, tenía mi micrófono para no pues. Creo que también algo muy importante que hay que también empezar a hacer nosotros, igual como mencionaba Marco este ejercicio autocrítico.

704
00:53:49,300 --> 00:54:05,300
No podemos dialogar y generar estas conversaciones y no huirle a ciertos conflictos, porque creo que también esa es una consecuencia de por ejemplo, querer hacer esta sobresensura de cualquier tipo de discurso, aunque sea discriminatorio y demás.

705
00:54:05,300 --> 00:54:13,300
No nos damos cuenta que está pensando la otra persona o no estamos, por ejemplo, en estos ambientes como de polarización como estaban hablando.

706
00:54:13,300 --> 00:54:23,300
Es importante saber qué están diciendo más allá de mi cámara de eco y cómo puedo interactuar con esa cámara de eco para empezar a desmantelar los discursos que hay detrás.

707
00:54:23,300 --> 00:54:37,300
Muchas de estas cosas se llaman a través del diálogo, del pensamiento crítico, de dudar como estoy escuchando cosas que solamente me han reafirmado a mi punto de vista, los mismos pensamientos que he tenido toda la vida en mi punto de vista.

708
00:54:37,300 --> 00:54:53,300
Y a partir de eso se puede haber una discusión, porque creo que también incluso cuando hacemos esta, pedimos esta rendición de cuentas y demás, hay que saber bien qué es lo que estamos pidiendo y tener las herramientas para poder, por ejemplo, a las, como mencionamos,

709
00:54:53,300 --> 00:55:13,300
una de las personas que más preocupa cuando emiten estos discursos de odio que son las autoridades, poder reclamarles que esos discursos son discursos de odio, son discursos discriminatorios y que sientan las consecuencias en el costo político que cuesta emitir ese tipo de discursos.

710
00:55:13,300 --> 00:55:29,300
Creo que también no podemos enfranzarnos en querer solo controlar palabras en específico como si no fuera y olvidar los problemas mucho más generales y sistemáticos que ocurren otra vez, que generan este discurso de odio.

711
00:55:29,300 --> 00:55:35,300
No, yo digo muchas veces que esto es un síntoma, un síntoma de muchas cosas, no necesariamente el problema único.

712
00:55:35,300 --> 00:55:43,300
Rodrigo. Coincido totalmente con Marte y con Grecia, pensamiento crítico. Me voy a poner muy rápidamente la cachucha de profesor.

713
00:55:43,300 --> 00:55:58,300
Hay un sociólogo polaco, ya murió, Sigmund Baumann, tiene escrito en un librito que una persona del siglo XIX, mediados, tenía en toda su vida el mismo acceso a información que tiene hoy en día una persona en un solo día de su vida.

714
00:55:58,300 --> 00:56:08,300
Estamos expuestos a una cantidad de información y el problema entonces ya no es el acceso a la información solamente, sino la forma en la que nos acercamos a ese acceso a la información.

715
00:56:08,300 --> 00:56:18,300
Y tiene que ver con el pensamiento crítico. Un poco lo decía Marte, ¿qué tengo enfrente? ¿qué me están diciendo? ¿cómo se relaciona eso con lo que yo pienso y con lo que veo en mi mundo?

716
00:56:18,300 --> 00:56:30,300
Y por supuesto la experiencia del acercamiento al otro que la mencionábamos y la mencionó Grecia recién. Necesitamos pensamiento crítico y para eso necesitamos muchas más cosas, educación, etcétera, que ahí nos da para otro programa.

717
00:56:30,300 --> 00:56:41,300
Sí, y lo haremos. Gracias, gracias por venir a ponernos sobre la mesa, a explicarnos también porque a veces desde el conocimiento cometemos errores cuando se habla de estos temas tan delicados, así que muchas gracias.

718
00:56:41,300 --> 00:56:48,300
Muchas gracias, muchas gracias, Rodrigo Peña, Marta Tudon, muchas gracias, Grecia, muchísimas gracias. Gracias.

719
00:56:48,300 --> 00:56:50,300
Con gusto.

720
00:56:50,300 --> 00:56:54,300
Aragüitos Curiosos.

721
00:56:54,300 --> 00:56:56,300
¿De qué va el dato este Marte?

722
00:56:56,300 --> 00:57:09,300
Hoy, dieciocho de junio, además de ser el Día Internacional para Contrarrestar el Discurso de Odio, es el Día de la Gastronomía Sostenible, es el Día Mundial del Orgullo Autista, es el Día Internacional del Falafel y también, ¿qué crees, Dani? es el Día Internacional del Sushi.

723
00:57:09,300 --> 00:57:12,300
Cabe mencionar que... ¿Dónde está mi sushi?

724
00:57:12,300 --> 00:57:15,300
Ya sé. Es tradición que cuando se habla de comida en el dato me traiga...

725
00:57:15,300 --> 00:57:21,300
Sí lo pensé, sí lo pensé, pero también te voy a decir, era un poco complicado conseguir sushi a las once de la mañana.

726
00:57:21,300 --> 00:57:34,300
Bueno, la iniciativa para celebrar el Día Internacional del Sushi fue de Chris Demay, él es administrador de una página de Facebook sobre sushi y en el dos mil nueve propuso esta fecha y tuvo muchísimo éxito a nivel mundial.

727
00:57:34,300 --> 00:57:42,300
Ahí les van los datos curiosos del sushi. El nombre sushi no se refiere a todos los ingredientes del plato. Sushi es una palabra de origen japonés que es la unión de dos palabras.

728
00:57:42,300 --> 00:57:49,300
Su, que es vinagre, y shi, me, shi, que es arroz, por lo que sushi se podría traducir como arroz a vinagrado.

729
00:57:49,300 --> 00:58:02,300
Y bueno, fue la comida rápida del siglo XIX. El sushi se convirtió en 1800 el fast food de la época, miles de restaurantes y pequeños puestos callejeros comenzaron a ofrecer sushi de forma rápida y a gran escala.

730
00:58:02,300 --> 00:58:06,300
Nunca he ido a Japón, pero yo creo que en Japón sí es como de fast food, ¿no?

731
00:58:06,300 --> 00:58:14,300
Sí, pero lo que conocemos como sushi ahorita es muy diferente. Los nigiris que ahora se han puesto de moda en México sí están, digamos, muy cercanos.

732
00:58:14,300 --> 00:58:19,300
De hecho, son. No, no, los nigiris sí son básicamente lo que comen en Japón.

733
00:58:19,300 --> 00:58:21,300
En Japón, pero los rollos de hechos.

734
00:58:21,300 --> 00:58:24,300
Con nombres simpaticísimos.

735
00:58:24,300 --> 00:58:32,300
Pues el California Roll, por ejemplo, literalmente se hizo en California, en Estados Unidos. Y sí, pues la verdad es que el sushi, como lo conocemos aquí en México, es muy diferente.

736
00:58:32,300 --> 00:58:35,300
Sí, los rollitos al verdadero.

737
00:58:35,300 --> 00:58:38,300
Pero bueno, sí pueden coman sushi el día de hoy.

738
00:58:38,300 --> 00:58:39,300
Muy bien.

739
00:58:39,300 --> 00:58:44,300
Nutriando tus oídos con los sabores del bienestar.

740
00:58:44,300 --> 00:58:51,300
Eso sí nuestra nutrióloga de cabecera nos lo permite porque llegó el momento de preocuparnos por llevar una vida, un estilo de vida saludable.

741
00:58:51,300 --> 00:58:52,300
Katia Leal, hola.

742
00:58:52,300 --> 00:58:53,300
Hola, Katia.

743
00:58:53,300 --> 00:58:57,300
Hola, Daniel y Viviana. Les comparto el tip de nutrición del día de hoy.

744
00:58:57,300 --> 00:59:07,300
Los garbanzos son una leguminosa con un alto contenido en fibra, por lo cual ayudan a prevenir el estreñimiento y promueven la regularidad de un sistema digestivo saludable.

745
00:59:07,300 --> 00:59:17,300
Los garbanzos contienen vitamina K, hierro, fosfato, zinc, lo cual contribuye a la construcción y mantenimiento de la estructura y la resistencia ósea.

746
00:59:17,300 --> 00:59:29,300
Esta leguminosa tiene proteína y aunque la cantidad de aminoácidos existentes en las proteínas vegetales son menores que en las proteínas animales, su cantidad de aminoácidos es muy similar a la de la proteína animal.

747
00:59:29,300 --> 00:59:33,300
Por cada 100 gramos de garbanzos crudos se aportan 22 gramos de proteína.

748
00:59:33,300 --> 00:59:37,300
La cantidad puede variar dependiendo del tipo de garbanzo utilizado.

749
00:59:37,300 --> 00:59:45,300
Los estudios demuestran que el consumo de dietas con alta cantidad de fibra como los garbanzos ayudan a disminuir los niveles de glucosa en sangre.

750
00:59:45,300 --> 00:59:53,300
Es un alimento importante también para las embarazadas por su contenido en ácido fólico que contribuye a prevenir malformaciones en el feto.

751
00:59:53,300 --> 00:59:57,300
Para más tips de nutrición, sígueme en mis redes sociales como Holisticati.

752
00:59:57,300 --> 00:59:59,300
Gracias Katia.

753
00:59:59,300 --> 01:00:03,300
Finanzas en foco para un futuro estable.

754
01:00:05,300 --> 01:00:09,300
Cuidas nuestro dinerito asesora personal Maleni Padilla. ¿Cómo estás?

755
01:00:09,300 --> 01:00:11,300
Hola Maleni.

756
01:00:11,300 --> 01:00:13,300
Hola Daniela, hola Vivi. Muy bien, muchas gracias.

757
01:00:13,300 --> 01:00:25,300
Pues hoy vamos a hablar de un mito bien importante que pasa a nos pasa a todos en algún momento la vida que es que somos muy jóvenes para ahorrar para nuestro retiro o para pensar en nuestro retiro.

758
01:00:25,300 --> 01:00:39,300
Y es uno de los mitos más dolorosos que que como como persona que que maneja finanzas personales nos nos duele mucho porque a veces hay personas jóvenes interesadas en cuidar sus finanzas pero no en pensar en el retiro.

759
01:00:39,300 --> 01:00:46,300
Y al contrario de ser muy temprano es el mejor momento pensar cuando somos jóvenes.

760
01:00:46,300 --> 01:00:59,300
¿Por qué? Porque no es lo mismo querer ahorrar en los últimos años de nuestra vida productiva y entonces querer juntar una cantidad suficiente para poder vivir un retiro feliz que además a todos los que le preguntas ¿cómo quieres que sea tu retiro?

761
01:00:59,300 --> 01:01:11,300
generalmente es disfrutando, viajando o disfrutando de vacaciones o cualquier cosa que todo lo que lo que pensamos para un retiro maravilloso tiene que ver con gastos ¿no?

762
01:01:11,300 --> 01:01:16,300
Entonces es importante romper este mito de que eso eres joven para ahorrar por tu retiro.

763
01:01:16,300 --> 01:01:29,300
Entre más pronto inicie, va a ser mucho más sencillo que puedas juntar grandes cantidades que y que te permita a utilizar los instrumentos de de interés compuesto que en el tiempo es muy muy valioso.

764
01:01:29,300 --> 01:01:38,300
Entonces comenzar a pensar que si ya tienes oportunidad del monto que sea poner un un específico que sea para el retiro.

765
01:01:38,300 --> 01:01:48,300
Esto no lo voy a tocar hasta que ya no quiera trabajar y bueno que ya no quiera trabajar porque me retiré porque si es que ya no quiero trabajar nada más puede ser a veces la siguiente semana ¿verdad?

766
01:01:48,300 --> 01:01:55,300
Cuesta trabajo ahorrar pero cuesta más trabajo tomar la decisión de ahorrar pero sin lugar a dudas es lo inteligente.

767
01:01:55,300 --> 01:01:56,300
Gracias Maleni.

768
01:01:56,300 --> 01:01:57,300
Gracias a ustedes.

769
01:01:57,300 --> 01:02:01,300
Maleni Padilla, Maleni con doble L y Latina.

770
01:02:01,300 --> 01:02:04,300
Todos me encuentran como Maleni Paz.

771
01:02:04,300 --> 01:02:05,300
Eso gracias.

772
01:02:05,300 --> 01:02:08,300
Gracias.

773
01:02:08,300 --> 01:02:12,300
Mantente actualizado con las tendencias en frecuencia.

774
01:02:12,300 --> 01:02:13,300
¿Qué es noticia en México?

775
01:02:13,300 --> 01:02:14,300
¿Qué es tendencia en el país?

776
01:02:14,300 --> 01:02:24,300
Las palabras Chetumal y Tren Maya porque a consecuencia de las fuertes lluvias generadas en Chetumal por el potencial ciclón tropical uno parte de la infraestructura de uno de los puentes que se construye en el tramo siete el

777
01:02:24,300 --> 01:02:39,300
ciudad colapsó y aplazó un vehículo. Sí, todo lo relacionado con ciclón tropical Alberto Fondén, Samuel García, etcétera, hay alerta por el impacto de la primera tormenta tropical de la temporada que llevaría el nombre de Alberto todavía es un ciclón tropical uno y

778
01:02:39,300 --> 01:02:50,300
bueno causará lluvias en al menos once estados no hay clases en en también en varios estados en Campeche, en los municipios de Otompe Blanco y Bacalar y mañana en Nuevo León y se van a suspender también.

779
01:02:50,300 --> 01:02:59,300
Cési Flores, el nombre de la madre buscadora de la líder de las madres buscadoras de Sonora apareció con vida después de ser reportada como no localizada desde el domingo en la noche.

780
01:02:59,300 --> 01:03:06,300
La encontraron en su refugio en su domicilio temporal en Querétaro, la llevaron a un hospital por una descompensación metabólica.

781
01:03:06,300 --> 01:03:16,300
Morena, poder judicial Sheinbaum porque la virtual presidente electa dio a conocer los resultados del encuesto organizada por Morena, más del ochenta por ciento de los encuestados está a favor de la reforma según los resultados.

782
01:03:16,300 --> 01:03:24,300
Hoy Sheinbaum se reunió con legisladores electos de Morena de un mensaje dijo nuestro mandato es gobernar con el pueblo para el pueblo y por el pueblo.

783
01:03:24,300 --> 01:03:32,300
Cuatro mil personas encuestadas el jueves dará parte de su gabinete. Fondo Monetario Internacional el presidente López Obradora arremetió contra las previsiones económicas que realizó el FMI.

784
01:03:32,300 --> 01:03:38,300
Sí, UNAM sigue siendo tendencia ayer le platicamos cómo el presidente descalificó un estudio el UNAM ya se deslindó.

785
01:03:38,300 --> 01:03:47,300
Aguacate Michoacán el gobierno de Estados Unidos anunció una suspensión temporal de las importaciones de aguacate desde ese estado la medida se la luego de un incidente en contra de inspectores.

786
01:03:47,300 --> 01:03:59,300
Corea del Norte y Putin el presidente Vladimir Putin ya llegó a Corea del Norte en los deportes Celtics porque ganaron su título 18 de la NBA y la Eurocopa todo relacionado con esta.

787
01:03:59,300 --> 01:04:05,300
Nos vamos muchísimas gracias por habernos acompañado se quedan en compañía de Enrique Acevedo y su equipo Vivi.

788
01:04:05,300 --> 01:04:06,300
Gracias buenas tardes.

789
01:04:06,300 --> 01:04:09,300
Nos vamos con Justin Timberlake porque fue detenido y es tendencia.

790
01:04:09,300 --> 01:04:36,300
Soy Daniel Iturbide. Adiós.

