Noticias de "facebook"

01-01-1970 | abc.es
Alibaba crea un modelo de aprendizaje artificial que gana a la mente humana
El Instituto de Ciencia de Datos de Tecnologías (IDST), brazo de investigación del Grupo Alibaba, anunció este lunes que ha desarrollado un sistema artificial de aprendizaje profundo que obtuvo una puntuación más alta que un ser humano en una prueba de comprensión de lectura de la Universidad de Stanford. El gigante chino del comercio electrónico aseguró a través de un comunicado que esta es la primera vez que una máquina supera a los humanos en la prueba conocida como SQuAD (Stanford Question Answering Dataset), que consta de unos 100.000 pares de preguntas y respuestas basadas en más de 500 artículos de la enciclopedia virtual Wikipedia. Esta se considera la mejor prueba de comprensión de lectura de máquinas del mundo y atrae a universidades, compañías e institutos que van desde Google, Facebook, IBM y Microsoft hasta la Universidad Carnegie Mellon, la Universidad de Stanford y el Instituto de Investigación Allen, según la empresa china. El pasado 11 de enero, el "modelo de redes neuronales profundas" desarrollado por Alibaba generó una puntuación de 82,44 en Exact Match, proporcionando respuestas exactas a las preguntas y superando la puntuación de los humanos de 82,304. El modelo aprovecha la red de atención jerárquica que lee párrafos, oraciones y palabras para ubicar las fases precisas con posibles respuestas y, asegura Alibaba, tiene un valor comercial significativo. "Estamos especialmente entusiasmados porque creemos que la tecnología subyacente se puede aplicar de forma gradual a numerosas aplicaciones como el servicio al cliente, los tutoriales de los museos y las respuestas en línea a consultas médicas de pacientes, disminuyendo la necesidad del aporte humano de una manera sin precedentes", apuntó el científico jefe de procesamiento de lenguaje natural (NLP) en Alibaba, Luo Si. Por ejemplo, esta tecnología se aplicó en el pasado Día del Soltero o Doble 11, el festival global de las compras por internet, donde las máquinas respondieron a una gran cantidad de consultas entrantes.
01-01-1970 | abc.es
Así soluciona Google Photos su «algoritmo racista»: eliminando de su base de datos a gorilas y monos
Los sistemas de reconocimiento facial se han introducido en los métodos de etiquetado de determinados servicios digitales en los últimos años como Facebook o Google. Son prácticos, sí, de gran utilizada para el día a día y ayudan a organizar el material gráfico, pero aunque han evolucionado positivamente no son totalmente perfectos. En 2015, el algoritmo informático integrado en la aplicación Google Photos confundió a dos afroamericanos y los etiquetó en una imagen como «gorilas». Un error que causó gran polémica y que obligó a la compañía norteamericana a pedir disculpas además de prometer que no volvería a suceder. Después de este tiempo, la solución que ha tomado el gigante de internet para evitar que se repita de nuevo un caso similar ha sido dejar fuera de la lista de etiquetados a simios, gorilas, chimpancés, monos. Una decisión rudimentaria. Aquel episodio se descubrió de casualidad, cuando Jacky Alciné, un programador de Nueva York, comprobó que unas imágenes en las que aparecía junto con una amiga se habían guardado en una carpeta generada de manera automática bajo la etiqueta «Gorillas» -gorilas, en español-. Las acusaciones de racismo no cesaron. La empresa tuvo que recular y actualizar el servicio. Según ha comprobado el medio especializado «Wired», la respuesta de Google para que no se repita esta «confusión» ha sido borrar (literalmente) tanto a los gorilas como a algunos otros primates del léxico del servicio tales como «babuino», «gibón» o «tití». Una «extraña solución», explican los expertos, que refleja las dificultades que enfrentan las compañías tecnológicas para mejorar los sistemas de reconocimiento de imágenes que comienzan a asaltar la vida de las personas en cada esquina. El software, además, tampoco es capaz de encontrar «mujer negra» o «hombre negro» en su nueva actualización, lo que se traduce en una máxima de andar por casa; mejor ocultar el problema que solucionarlo. La aplicación y servicio web Google acumula en la actualidad unos 500 millones de usuarios, según las últimas cifras conocidas. Está concebido como un espacio para administrar y realizar copias de seguridad de las imágenes personales. Utiliza un modelo tencnológico basado en «aprendizaje automático» o «machine learning» para agrupar de manera automática las fotografías con contenido similar y ubicaciones. El sistema permite, además de «aprender» y adaptarse a los hábitos de los consumidores conforme más se utiliza, que los usuarios puedan localizar sus recuerdos personales rápidamente. «La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta» Pero no es perfecto. Un portavoz de Google confirmó a «Wired» que el término «gorila» se eliminó de las búsquedas y el etiquetado de imagen después del incidente de 2015 y que «chimpancé» y«mono» también se encuentran bloqueados en la actualidad. Porque lo cierto es que las máquinas y los sistemas de inteligencia artificial requieren de un entrenamiento, que generalmente lo hacen seres humanos, aunque los sistemas más avanzados son capaces de «aprender» mediante redes neuronales por capas más allá de los habituales supuestos y casos prácticos que almacenar. «La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta», explican fuentes de la compañía norteamericana al mismo medio. El escenario, además, es incierto, puesto que ya se trabaja en el desembarco de vehículos autónomos que, mediante algoritmos, programas informáticos y sensores, deben discriminar a peatones de animales y objetos. Los ingenieros de aprendizaje automático que trabajan en estos sistemas deben preocuparse por los «casos de excepción» que no se encuentran en sus bases de datos. «Es muy difícil modelar todo lo que verá su sistema una vez que esté en funcionamiento», apunta Vicente Ordóñez Román, profesor de la Universidad de Virginia, a «Wired». ABC ha comprobado que, efectivamente, cuando el usuario sube una imagen de un gorila, el sistema no ofrece como sugerencia catalogarlo.
01-01-1970 | abc.es
¿En qué te afectarán los próximos cambios de Facebook?
Mark Zuckerberg anunció a finales de año que su propósito para 2018 no era apuntarse al gimnasio o comer más sano, sino «arreglar» Facebook. Un cometido que comienza con una serie de cambios que afectarán al modo en que se presenta la interfaz a sus usuarios, que ya no verán su entrada bombardeada con el famoso «contenido relevante» que se crea a partir de las búsquedas de sus integrantes. El creador de la famosa red social explicó que ahora la intención es «tener interacciones más significativas» y acercar a sus usuarios: esto es, calidad y familiaridad antes que cantidad y globalidad. El cambio de algoritmo: un punto de inflexión Todo esto lo logrará a través del cambio en el algoritmo del News Feed -la interfaz que le aparece al usuario con las actualizaciones de sus amigos, páginas a las que sigue y contenidos que Facebook juzga que pueden ser relevantes para cada cuenta-. «Estoy cambiando el objetivo que le doy a nuestros equipos de productos para centrarse en ayudarte a encontrar contenido relevante y así tener interacciones sociales más significativas», señaló Zuckerberg en un comunicado compartido en su página en la red social. Con ello, disminuirán las apariciones de noticias de los editores de contenido, sobre todo de medios de comunicación. «El contenido del editor se consume pasivamente y no se habla de él descenderá. El tiempo general en Facebook decrecerá, pero creemos que es lo correcto», afirmó al medio especializado TechCrunch Adam Moseri, vicepresidente de Noticias de esta red social, palabras que después utilizaría el propio Zuckerberg en un comunicado de hace unos días. Las primeras consecuencias Así, se priorizarán las noticias «que inspiren el debate de ida y vuelta en los comentarios», por encima de acciones como «compartir» o calificar con «me gusta». Por eso, las publicaciones de los amigos, que normalmente congregan más este tipo de interacción, serán las grandes beneficiadas con el cambio. Aún no ha entrado este cambio en vigor, pero muchos editores de noticias esperan que baje el tráfico de sus páginas. Las razones del cambio La versión oficial de Facebook que explica esta modificación está estudios que afirman que las redes sociales solo son buenas si se usan para «conectarse con las personas que nos importan». Por ello, el cambio en el algoritmo vendría a reforzar el «sentiemiento de comunidad» de la red social, y estaría en la línea de otras medidas como la de «castigar» las publicaciones que buscan reacciones o que el usuario comparta para conseguir alguna recompensa. Pero también planea la mala reputación que las «fake news» -noticias falsas- supusieron para Facebook con las elecciones estadounidenses en 2016, cuando «ejércitos de cibersoldados» propagaron informaciones falsas para influir en los votantes. Experiencias previas No se trata de una experiencia totalmente nueva. Ya en diciembre de 2013, Facebook cambió su algoritmo para promocionar «artículos de alta calidad» sobre «una foto de meme alojada en otro lugar que no sea Facebook», recuerdan desde The Guardian. Este cambio también afectaba a publicaciones que buscaban el «clic» con diferentes cebos. Como consecuencia, el portal Upworthy vio su tráfico reducido a la mitad en el mes posterior al cambio del algoritmo, «un declive del que nunca se ha recuperado del todo», aseguran desde este medio. Posteriormente, y de cara a «probar» este nuevo sistema, se instauró en pequeños países, como Guatemala, la función «explorar», desapareciendo las noticias de «Feed» por completo. Los periodistas informaron que la cifra de lectores se redujo a la mitad después del cambio, lo que a nivel global podría significar un gran impacto para el tráfico de grandes cabeceras que se nutren de Facebook en sus visitas. La misma reacción se temen organizaciones como las ONG, que vean su influencia disminuida por el cambio de este algoritmo, por lo que muchos ya han alertado de las malas consecuencias que puede tener este cambio. El futuro de Facebook Mack Zuckerberg ha afirmado que su intención con este cambio es que «el tiempo que las personas pasan en Facebook sea más valioso», aunque admite que las visitas caerán, así como «algunas medidas de compromiso», que pueden estar relacionadas tanto con la frecuencia de uso de sus usuarios como con los ingresos en publicidad de la red social. Pero asegura: «Si hacemos lo correcto, creo que será bueno para nuestra comunidad y nuestro negocio a largo plazo».
01-01-1970 | abc.es
Así pretende WhatsApp acabar con los bulos y las cadenas de mensajes falsos
La lucha contra las llamadas «fake news» o «noticias falsas» que se libran en las principales redes sociales tiene un episodio adicional: la cadena de mensajes que suelen enviarse a través de aplicaciones de mensajería instantánea como WhatsApp y que, por lo general, suelen contener falsedades. Consiste en una retahíla de mensajes que pretenden alarmar a la población. No es algo novedoso. Los bulos y mentiras se han difundido siempre por los canales informativos de la época. Pero ahora, por la rapidez e inmediatez de internet quedan visibilizadas. No se salva nadie, tampoco WhatsApp, empresa filial de Facebook, que cuenta con su propio formato para promocionar las noticias malintencionadas, la cadena de mensajes. Seguro que a más de uno le habrá llegado en alguna ocasión ese mensaje que decía que el servicio iba a ser de pago si no lo enviabas a diez contactos. Pues eso. Se suele presentar como un mensaje informativo que trata de «ayudar». Aparecen con mayor fuerza cuando se produce un acontecimiento de gran relevancia como un atentado o un anuncio político de importancia. La facilidad a la hora de compartirlo provoca que estas cadenas inunden los chats de WhatsApp, sobre todo los grupales, cuyo origen es difícil de descubrir. Pero para reducir su impacto, WhatsApp prepara un nuevo método; incorporar una etiqueta o alerta que informe a los usuarios que el mensaje que va a enviar puede contener errores. Según ha desvelado «WABetaInfo», medio especializado que avanza los nuevos servicios de esta popular aplicación, la idea es añadir un sistema capaz de avisar con indicadores o «flags» -«banderas», en español, nombre con el que se identifica a este tipo de alertas- si se trata de un mensaje que se ha reenviado muchas veces y que, por tanto, es susceptible de contener errores. Imagen de una conversación de WhatsApp - WABetaInfo Este método, sin embargo, no evitará, en caso que finalmente se ponga en marcha, que impida compartirse estas cadenas, pero al menos informará al usaurio que es posible que reenvíe un contenido calificado de inapropiado. La «app», para ello, requerirá de tener un cierto acceso al contenido difundido para certificar que se trata de una cadena de mensajes. El mensaje de advertencia se mostrará en la parte superior del chat de WhatsApp, debajo del nombre del usuario remitente. Según las primeras capturas, el usuario receptor verá esa alerta cuando intente reenviar dicho mensaje. El objetivo, por tanto, es mentalizar al usuario antes de que cometa el error de difundir por inercia una cadena de mensajes inapropiada. Por el momento, se desconoce la fecha de disponibilidad.
01-01-1970 | abc.es
Facebook investiga si Rusia interfirió en el Brexit
La red social Facebook ha iniciado una investigación sobre la posible influencia de Rusia en las elecciones de 2016 que decidieron la salida de Reino Unido de la Unión Europea. Así lo afirma un comunicado de la compañía, firmado por el director de políticas de la plataforma, Simon Milner, que ha sido enviada este miércoles a los miembros de la Cámara de los Comunes que también están analizando el asunto, según ha informado Bloomberg. Tanto Facebook como Twitter han explicado previamente a los legisladores de Reino Unido que encontraron «un uso mínimo» de sus plataformas en comparación con la campaña de desinformación antes de las elecciones presidenciales de Estados Unidos por parte de Rusia. Las compañías han analizado las cuentas que los funcionarios de inteligencia de EE.UU. señalaron como culpables de esta acción, enmarcada dentro de las denominadas «Fake news», aunque los gobernantes británicos presionaron a estas empresas para llevar a cabo un análisis más profundo para determinar si se produjo el mismo caso en las elecciones que desencadenaron el Brexit. «Nos comprometemos a hacer todos los esfuerzos razonables para establecer si hubo o no una actividad coordinada similar a la que se encontró en los EE.UU. y enviaremos un informe tan pronto como se haya completado el trabajo», ha asegurado Milner en el escrito. La compañía se ha marcado «varias semanas» com plazo para completar la revisión, y ha solicitado la información recabada por las evaluaciones de inteligencia de Reino Unido, así como otras que puedan ayudar en el asunto. Por su parte, Twitter, que tiene hasta el jueves para decidir si llevará a cabo una acción similar, aún no se ha pronunciado al respecto, aunque si ha adelantado que comenzará a notificar a los usuarios estadounidenses que pudieran haber estado expuestos a la propaganda rusa. Proactividad de las redes sociales El presidente del comité digital, cultural y de medios, Damian Collins, ha advertido que las compañías de redes sociales deben ser más proactivas en la investigación del uso indebido de sus servicios en lugar de esperar la acción de los reguladores. «Están mejor ubicados para investigar la actividad en su plataforma», ha aseverado. Facebook ya ha anunciado los primeros pasos para luchar contra el fenómeno de las «Fake news». Así, la compañía ha anunciado que cambiará el algoritmo de su «Feed» de noticias, en las que primará las informaciones de amigos frente a las de empresas y medios particulares.
01-01-1970 | abc.es
Facebook prepara una función para ver vídeos en grupo
Facebook ha iniciado las pruebas de una nueva función que permitirá que los miembros de un grupo de la red social puedan ver un mismo vídeo de forma simultánea. Estos usuarios podrán compartir comentarios y reacciones sobre este contenido, que será seleccionado por los administradores del grupo. La vicepresidenta de Producto de Facebook, Fidji Simo, ha anunciado a través de una publicación en la plataforma que una nueva función, llamada Watch Party, ha comenzado a ser probada en algunos grupos de la red social. A través de esta característica, los integrantes podrán ver de forma simultánea un vídeo y compartir comentarios y reacciones sobre el mismo entre ellos. Los administradores o moderadores del grupo serán los encargados de seleccionar el contenido, que podrá ser cualquier vídeo público de Facebook, tanto en directo como previamente grabado. Simo ha explicado que el objetivo de la compañía es extender la «interactividad» y «comunidad» de su servicio de «streaming» de vídeos Facebook Live a otras experiencias audiovisuales de la plataforma. La red social ha elegido los grupos como primer espacio de implantación de Watch Party por los mil millones de usuarios que los utilizan mensualmente «para conectarse alrededor de sus pasiones y aficiones» y el vídeo es una «parte enorme» de esta interacción, ha explicado la vicepresidenta de Producto de Facebook. Fidji Simo ha indicado que esta nueva característica de los grupos forma parte de la nueva apuesta de la plataforma por potenciar las «conexiones personales», como anunció el fundador de la compañía, Mark Zuckerberg, el pasado viernes. El máximo dirigente de Facebook avanzó entonces que la red social promocionará las publicaciones de usuarios frente al contenido corporativo. Facebook prevé expandir esta nueva característica «en el futuro» a más grupos y usuarios, ha comentado Simo.
01-01-1970 | abc.es
Workplace, la razón por la que es obligatorio tener abierto Facebook en el trabajo
Hace ya un año y medio del lanzamiento de WorkPlace de Facebook, la red social cerrada para negocios que utiliza la misma plataforma que todos ya conocemos, pero en un entorno de empresa. Surgida en Londres dentro de la red social de Mark Zuckerberg en 2016 como un proyecto independiente, ya cuenta con más de 30.000 compañías registradas. Hablamos con Julien Codorniou, VP de Workplace, y con Alicia Segura, responsable de comunicación y relaciones públicas de Carglass, empresa que trabaja con la red social desde el principio. El objetivo de Workplace, cuenta Codorniou, es el mismo que el de Facebook: conectar personas pero de forma profesional. No todas las empresas cuentan con empleados que trabajan en una oficina delante de un ordenador, como es el caso de Carglass, donde el 80% de la plantilla formada por 1.200 personas se dedica al montaje de cristales de automóvil. El éxito de Workplace radica en que sus usuarios no tienen que aprender nada nuevo, el mismos interfaz y mecanismo al que ya todos están acostumbrados en Facebook. «Los trabajadores no quieren tener que aprender a usar una nueva herramienta, eso hace que las tasas de adopción en las empresas de intranets y otros servicios similares sean relativamente bajos», afirma el VP de la plataforma. La aplicación efectiva en las empresas Para Carglass, esta plataforma ha sido un gran avance, ya que la mayoría de los empleados de Carglass no utilizan el ordenador en su trabajo. Por otro lado, se daba un elevado nivel de inmadurez digital y el uso de la tradicional intranet era prácticamente nulo. Además, la alta dispersión geográfica en más de 200 puntos de venta en todo España, suponía un problema para la compañía, que encontraba escollos a la hora de comunicarse con sus propios empleados. Segura afirma que durante un mes planearon lo que se tradujo en una de las campañas publicitarias más importantes de la compañía, con un paquete de bienvenida a la red social profesional que se distribuyó entre todos los empleados, y que incluía instrucciones para dar de alta su nueva cuenta en Workplace, una camiseta y unos auriculares si se registraban y publicaban su primera foto. Esto supuso un cambio cultural enorme, pero lograron que prácticamente el cien por cien de los empleados usen hoy en día Workplace de Facebook, y lo hacen desde su teléfono móvil personal. Los números hablan por si solos, se han creado 104 grupos activos y los empleados han hecho más de 2500 publicaciones. «WorkPlace se convertido en el único canal de comunicación interna después de un año de funcionamiento. Personas que se encontraban prácticamente sentadas al lado, no se conocían, pero gracias a esta plataforma ahora han conectado. Usamos un nuevo grupo de "Quién es quién" donde publicamos videos de que es lo que hace cada empleado. Todo el mundo está encantado. Ha favorecido mucho la integración de personas que estaban geográficamente muy aisladas del resto, como las unidades de reparación móvil», asegura la responsable de Carglass. Redes sociales, ¿distracción o herramienta útil? Cuando hablamos de redes sociales en el espacio de trabajo, siempre surge la duda de si se trata de una distracción, o de una herramienta realmente útil a la hora de trabajar. En el caso de Carglass, el 71% de los grupos creados son acerca del trabajo y si algún tema no se considera apropiado para la red, simplemente se solicita al usuario que se borre. Todo apoyado por los embajadores, empleados que se dedican a dinamizar la red. En poco más de un año las cifras de la nueva plataforma de Facebook son prometedoras: más de 30.000 empresas en todo el mundo ya usan Workplace y han creado más de un millón de grupos en 79 idiomas. Éstas pertenecen a todo tipo de sectores, como telecomunicaciones, finanzas, nuevas tecnologías, medios de comunicación y un largo etcétera. La clave se encuentra en la integración con herramientas vitales en el lugar de trabajo, como Microsoft, Salesforce, GSuiteo Dropbox, que hacen posible también el trabajo en grupo.
01-01-1970 | abc.es
Compartir vídeos en directo solo con grupos, la nueva función de Facebook
En la línea con su nueva apuesta por acercar más a amigos y personas cercanas, convirtiendo en una «experiencia de calidad» la visita a Facebook, la red social está probando una nueva herramienta por la que los usuarios pueden compartir vídeos, ya sea en directo o pregrabados, con un grupo del que sean administradores. Esta función, llamada «Watch Party», ha sido anunciada por Fidji Simo, directora de Facebook Live, a través de su cuenta personal. En este comunicado Simo explica que, tras la elección del vídeo que decida, el usuario puede decidir la hora a la que quiere emitirlo en un grupo, pudiendo los integrantes de este comentar y emitir reacciones al igual que ocurre en la aplicación convencional. «Estamos comenzando con grupos porque 1.000 millones de personas utilizan esta herramienta cada mes para hablar de sus pasiones y pasatiempos en común, como el amor por la cocina, los animales o el fanatismo por un deporte, y definitivamente, el vídeo es una gran herramienta para utilizar para esta interacción. Aunque por los momentos, "Watch Party" es una pequeña prueba, aprenderemos y esperamos expandirla en el futuro», aseguró Simo. Así, la red social de Mark Zuckerberg potencia su intento por conseguir priorizar las publicaciones en el Feed por delante de post de medios y empresas, una medida muy criticada por las compañías, que prevén un descenso en el tráfico de sus páginas web.
01-01-1970 | abc.es
Facebook permitirá a sus usuarios decidir qué medios de comunicación son fiables
La red social Facebook anunció hoy que valorará y clasificará los medios de comunicación en función de la confianza otorgada por los propios usuarios de la plataforma. De esa forma, las cabeceras con mejores valoraciones tendrán prioridad en el hilo de noticias de los usuarios, una estrategia con la que la empresa espera combatir «el sensacionalismo, la desinformación y la polarización». «Hemos decidido que permitiendo que la comunidad determine qué fuentes son ampliamente aceptadas sería lo más objetivo», dijo el creador de Facebook, Mark Zuckerberg. «Las redes sociales permiten a la gente divulgar la información más rápido que nunca, y si no hacemos frente a estos problemas, terminamos por amplificarlos. Por eso es importante que el hilo de noticias promueva noticias de alta calidad que ayuden a construir una serie de intereses comunes», agregó. La semana pasada, Facebook comenzó a preguntar a sus usuarios acerca de su familiaridad con ciertos medios de comunicación y su confianza en ellos. Esos cuestionarios se irán extendiendo para dar prioridad a medios que sean «de confianza, informativos y locales». Además, la compañía anunció recientemente que en el muro de sus usuarios dará prioridad a los contenidos publicados por familiares o amigos frente a las publicaciones que lleven la firma de empresas o medios de comunicación. Zuckerberg señaló que estos cambios están orientados a mejorar y a hacer más valiosas las experiencias de sus usuarios en esta red. «Recientemente, hemos recibido comentarios de nuestra comunidad acerca de que el contenido público -publicaciones de negocios, marcas y medios- está desplazando los momentos personales que nos llevan a conectar más con los otros», indicó en una publicación en su perfil oficial de Facebook. El fundador de la red social admitió que los vídeos y otros contenidos corporativos en la plataforma han crecido mucho en los últimos dos años, por lo que hay más publicaciones de este tipo que personales de amigos y familiares.
01-01-1970 | abc.es
Facebook admite que las redes sociales pueden ser «malas» para la democracia
Después de un año complicado, en el que Facebook se ha visto en entredicho por su influencia en hechos tan importantes como las elecciones presidenciales de Estados Unidos y su relación con las «Fake News», varios responsables de la red social se han enfrentado a la «pregunta difícil» de si realmente las redes sociales pueden afectar a las democracias. «Durante muchos años, la respuesta pareció más fácil. Desde la primavera árabe hasta las elecciones en todo el mundo, las redes sociales parecían positivas. La última campaña presidencial de los EE.UU. cambió eso, con la interferencia extranjera que Facebook debería haber identificado más rápidamente ante el surgimiento de "noticias falsas" y cámaras de resonancia», ha afirmado Katie Harbath, directora global de política y extensión del gobierno de la plataforma, que ha señalado la «determinación» de la compañía para convertirse en una «fuente de bien democrática». Por otro lado, el gerente de producto de compromiso cívico de Facebook, Samidh Chakrabarti, ha señalado directamente al fenómeno de las «Fake News» como el origen del mal, al mismo nivel que la interferencia extranjera, el acoso político, la participación desigual y las cámaras de resonancia. «En 2016, en Facebook fuimos demasiado lentos para reconocer cómo los malos actores estaban abusando de nuestra plataforma», dijo Chakrabarti en su post. También ha acompañado en esta discusión a los responsables de Facebook el profesor de la facultad de Derecho de Harvard Cass R. Sunstein. «Las plataformas de redes sociales son excelentes para la democracia de muchas maneras, pero bastante malas para otras. Y siguen siendo un trabajo en progreso, no solo por los nuevos actores, sino también por los no tan nuevos (incluido Facebook) continúan evolucionando. Lo que dijo John Dewey sobre mi amado país también es cierto para las redes sociales: "Estados Unidos aún no está hecho; no son un hecho consumado para ser evaluado categóricamente"». «Es loquísimo que Facebook afecte a las elecciones» En un primer momento, el propio Zuckerberg no se creyó el impacto de las «Fake news» en las elecciones presidenciales, cuestión que fue confirmada el año pasado. Llegó a calificar de «loquísima» la idea de que las publicaciones en su red social, que cuenta con 2.000 millones de usuarios en todo el mundo, afectaran al resultado de las elecciones que acabaron con Donald Trump como presidente de los EE.UU. en 2016, y tras la que se demostró todo un entramado organizado por grupos rusos para interferir en el voto.
967