Por qué el CEO de Telegram fue detenido en Francia

Pavel Durov, director ejecutivo y fundador de la aplicación de mensajería Telegram, fue detenido el sábado en París como parte de una investigación francesa en curso sobre delitos financieros y cibernéticos. El lunes, las autoridades francesas dijeron que sigue detenido, aunque no ha sido acusado de ningún delito.

El presidente francés, Emmanuel Macron, negó la El arresto tuvo motivaciones políticasDurov tiene ciudadanía francesa y de los Emiratos Árabes Unidos, pero es originario de Rusia; Francia ha sido muy crítica con la invasión rusa de Ucrania y ha aplicado sanciones a su economía.

Los detalles sobre las causas exactas de la detención son limitados. Sin embargo, según los fiscales franceses, Durov se encuentra detenido como parte de una investigación francesa más amplia. El New York Times informó que los fiscales dijeron que están investigando a una “persona sin identificar” que creen que puede haber cometido una extensa lista de delitos, aparentemente con la ayuda de Telegram, que incluyen la distribución de material de abuso sexual infantil, lavado de dinero y tráfico de drogas. El Washington Post informó que la policía francesa ha sugerido que los “delitos sexuales contra menores” son un área de especial atención para los funcionarios.

No está claro cuál es la relación de Durov con la “persona no identificada”, si es que la tiene. A menos que se le presenten cargos formales, Durov sólo podrá permanecer detenido hasta el miércoles.

No es la primera vez que Telegram se ve vinculada a una actividad ilegal. Se trata de una plataforma popular a nivel mundial que ofrece canales de difusión (en los que los usuarios pueden enviar texto y archivos multimedia a grandes grupos de personas) y chats entre usuarios. También ofrece lo que denomina conversaciones de “chat secreto” que están cifradas de extremo a extremo, lo que significa que los mensajes enviados solo son descifrables para los participantes de la conversación y que nadie más, ni siquiera Telegram, puede ver el contenido.

Esa característica, así como otras funciones de privacidad como la eliminación automática de mensajes, hacen que la aplicación sea extremadamente útil para disidentes políticos y periodistas que intentan trabajar bajo regímenes represivos o proteger sus fuentes. Pero la aplicación también se ha convertido, con el paso de los años, en un espacio donde los extremistas pueden radicalizar a los usuarios y organizar ataques terroristas.

Esto ha generado cierta presión por parte de los gobiernos para que Telegram sea más colaborativa en lo que respecta a los datos que comparte con las autoridades. Sin embargo, a pesar de esto, Telegram ha logrado evitar en gran medida los dramáticos encuentros legales, hasta ahora.

El arresto de Durov renueva el escrutinio sobre la aplicación y reavivando los acalorados debates sobre la libertad de expresión y los desafíos de la moderación de contenidos en las redes sociales.

Telegram y el problema de la moderación de contenidos

Durov y su hermano Nikolai fundaron Telegram para ofrecer una aplicación centrada en la privacidad del usuario tras la “Revolución de la Nieve” en Rusia en 2011 y 2012, cuando un fraude electoral flagrante desencadenó meses de protestas que culminaron en una represión gubernamental dura y en constante evolución. Anteriormente, Durov se peleó con las autoridades rusas que querían suprimir la libertad de expresión en el servicio similar a Facebook que él fundó, llamado VKontakte.

En los años transcurridos desde su fundación, Telegram supuestamente ha permitido algunos delitos verdaderamente impactantes. Quizás el más infame fue el de haber sido utilizada para coordinar los ataques del EI en París y Berlín. Después de esos ataques, tomó medidas enérgicas contra la actividad del EI en la aplicación, pero sus políticas de moderación de contenido han sido objeto de un gran escrutinio.

Como ha señalado Diario Angelopolitano, esas políticas son más laxas que las de otros grupos de redes sociales, y medios como el Washington Post han informado de que Telegram ha albergado una variedad de contenidos delictivos, incluida la pornografía infantil. Mantener ese tipo de material fuera de una plataforma es una tarea ardua, pero no imposible, dijo a Diario Angelopolitano Alessandro Accorsi, investigador del International Crisis Group.

“La eficacia de la moderación de contenidos depende en gran medida de la plataforma y de los recursos que asigna a la seguridad”, afirma Accorsi. “Las empresas de redes sociales suelen ser reactivas. Quieren limitar los recursos financieros dedicados a la moderación, así como los posibles dolores de cabeza legales, políticos y éticos. Por lo tanto, lo que suele ocurrir es que centran sus esfuerzos en unos pocos grupos o cuestiones para los que la inacción de su parte conlleva costes legales o de reputación”.

Por ejemplo, cuando ISIS utiliza un servicio para realizar ataques terroristas, ese servicio se centra en impedir que ISIS utilice sus productos.

En las comunicaciones que no están cifradas de extremo a extremo, las empresas tecnológicas utilizan una combinación de investigadores humanos y programas basados ​​en algoritmos para clasificar el contenido. Sin embargo, el tipo de cifrado de extremo a extremo que se utiliza en los «chats secretos» de Telegram hace que ese tipo de moderación sea prácticamente imposible.

Otro aspecto que complica las cosas es la naturaleza variada de las leyes de Internet en todo el mundo. En Estados Unidos, los editores están generalmente protegidos legalmente de la responsabilidad por lo que publican los usuarios, pero no es así en todos los casos; muchos países tienen marcos legales mucho más estrictos en torno a la responsabilidad de los intermediarios. La Ley SREN de Francia es extremadamente estricta y puede imponer multas a los editores por infracciones de contenido.

“Es algo muy difícil de hacer, especialmente en un contexto comparativo, porque lo que es un discurso de odio, extremo o radical en un lugar como Estados Unidos va a ser diferente de lo que es en Myanmar, Bangladesh u otros países”, dijo a Diario Angelopolitano David Muchlinski, profesor de asuntos internacionales en Georgia Tech. Eso hace que la moderación de contenido sea “una herramienta torpe en el mejor de los casos”.

Telegram, en respuesta a la reciente presión externa, ha aplicado cierta moderación de contenidos, según ha declarado Accorsi a Diario Angelopolitano. Ha prohibido canales asociados a un puñado de organizaciones (las más recientes, Hamás y grupos de extrema derecha en el Reino Unido), pero todavía siguen presentes miles de grupos problemáticos.

La investigación de Francia sugiere que Telegram podría no estar haciendo lo suficiente para evitar que actores maliciosos utilicen la plataforma para cometer delitos.