Noticias de "facebook"

01-01-1970 | abc.es
YouTube admite fallos a la hora de filtrar y bloquear los videos inapropiados
Es difícil equilibrar la balanza. Libertad de expresión, ética, sentido común, bloqueo los mensajes inapropiados. Ponderar estas ideas es un quebradero de cabeza para las empresas propietarias de servicios digitales de notable éxito como Facebook o Google. Cualquier acción puede destapar las iras de un sector de la comunidad. Las medidas de filtrado de contenidos por medio del uso de sistemas informatizados y algoritmos se ha demostrado, por el momento, insuficientes para combatir esta lacra que amenaza con hacer explotar las redes sociales. Que YouTube es la mayor red de videos del planeta no hay duda. Que a su alrededor se ha inaugurado una nueva forma de consumir contenidos audiovisuales, dando paso a una nueva generación de creadores, los llamados «youtubers», tampoco se le escapa a nadie. Pero que también han surgido problemas adicionales que empañan parte de su fuerza es un escenario difícil de gestionar dado que se publican infinidad de videos cada minuto. La polémica protagonizada por el «youtuber» Logan Paul, que subió en su canal que suma más de 15 millones de suscriptores imágenes de un cadáver, no hace más que echar leña al fuego de las dudas acerca de la impunidad y falta de cintura de este tipo de plataformas para combatir los mensajes de odio y fuera de lugar. La compañía, filial del grupo Alphabet, ha prometido que estudia nuevas medidas para evitar que este tipo de casos vuelva a suceder en el futuro. YouTube, en una serie de mensajes publicados en su perfil de Twitter, ha reconocido que la conducta de este «youtuber» en particular fue inapropiada hasta el punto que «rompió la reglas de la comunidad» al publicar un video «grotesco y perturbador». «El suicidio no es un chiste, ni debería utilizarse para ganar visitas. Como Anna Akana explica perfectamente: "ese cuerpo era una persona de alguien querido. No entres en un bosque de suicidios con una cámara y digas que es para crear conciencia acerca de la salud mental"», relata la compañía. La plataforma estudia las posibles consecuencias de este tipo de actos. «Nos ha llevado mucho tiempo publicar una respuesta, pero hemos escuchado lo que la comunidad ha señalado. Sabemos que las acciones de un creador pueden afectar a toda la comunidad, por lo que pronto compartiremos más detalles sobre los pasos que daremos para asegurarnos de que un vídeo como este jamás vuelva a distribuirse», promete. En el último año el tratamiento y difusión de contenidos, algunos de ellos con errores y falsedades, ha iniciado un debate acerca de la responsabilidad de las redes sociales en lo que ha venido a denominarse «fake news». Las plataformas digitales, además, se enfrentan a otro problema, la impunidad sobre aquellos usuarios que, al calor del anonimato, son capaces de acosar a otros.
01-01-1970 | abc.es
Inteligencia artificial para todo: la nueva matraca que nos quieren vender
El Consumer Electronics Show (CES 2018) de Las Vegas, el congreso más importante de tecnología del año, tiene un nuevo protagonista desde hace dos ediciones: la inteligencia artificial. Máquinas cognitivas capaces de aprender por sí mismas que prometen revolucionar la industria, y que en cada convocatoria del CES se sitúan un paso más cerca de hacerse realidad. Una de las aplicaciones más comunes de la inteligencia artificial, con la que todos hemos tenido contacto, son los asistentes virtuales, como Siri de Apple, el asistente de Google, Alexa de Amazon o Cortana de Microsoft. Todos ellos luchan por convertirse en los líderes del mercado, ya que en los próximos años serán el interfaz con el que los usuarios interactuarán con sus aplicaciones y servicios digitales. Pero no todos sobrevivirán a esta dura competencia. Por ejemplo, recientemente Facebook ha anunciado el cierre de M, su propia propuesta de asistente personal. De hecho, el mercado de esta herramienta despierta tanto interés por parte del público general que el producto más vendido de Amazon en Estados Unidos durante las navidades ha sido Amazon Dot, el pequeño altavoz equipado con Alexa. Google Assistant da el relevo a Alexa Durante este CES hemos sido testigos de cómo el último asistente en incorporarse al mercado, el de Google (disponible desde noviembre en español), ha empezado a invadir diferentes espacios, igual que hizo Alexa el año pasado. En el hogar, LG, Lenovo, Sony y JBL han presentado sus altavoces equipados con el asistente de Google, sumándose así, a Bang & Olufsen, Braven o iHome. Ofreciendo un amplio catálogo de dispositivos con el asistente del buscador destinados a casa. En el coche, fabricantes como Ford, Volkswagen, Volvo, Nissan o General Motors, que ya contaban con Android Auto en sus automóviles tendrán en poco tiempo el asistente. Éste será capaz de reproducir música de Spotify, contestar un Whatsapp o establecer una ruta de navegación sólo con la voz como interfaz, sin necesidad de quitar la vista de la carretera. Algunos modelos de Mercedes y BMW, ya cuentan con el asistente después de la última actualización. Todos intentan «subirse al carro» de la AI Hablamos con Florian Deleuil, Lead Product Manager del Smart Home Bot de Netatmo, empresa que ha presentado su nuevo asistente virtual para el hogar en el marco del CES. «La inteligencia artificial es un software que imita el comportamiento humano. Si bien hay muchos métodos para hacerlo, el más conocido se produce por el aprendizaje profundo o "deep learning". Se trata de proporcionar una gran cantidad de datos a un ordenador con el propósito de analizar y reconocer patrones que se aplicarán a nuevos datos», explica Deleuil. Los chatbots, una derivada de los asistentes virtuales, se usan sobre todo para servicios de atención al cliente y tareas simples como verificar una cuenta bancaria o reservar un billete de avión. Por ejemplo, a través del Netatmo Smart Chat Bot, las usuarios tienen la capacidad de controlar toda su casa mediante mensajes de texto. Preguntamos a Florian acerca de si la inteligencia artificial y los asistentes virtuales se tratan de una moda ensalzada por la industria o realmente nos encontramos ante un avance paradigmático. El responsable de Netatmo afirmó que cada vez que se produce un avance tecnológico, todo el sector intenta «subirse al carro», creando este efecto exagerado de interés que estamos viviendo. «Pero, al final sólo unas pocas empresas serán capaces de innovar y generar un cambio auténtico», ha afirmado. Todavía hay mucho que avanzar para que estos asistentes y chatbots comprendan la complejidad del lenguaje humano. Si bien ha habido muchas mejoras, todavía hay algunos obstáculos, como la comprensión de las emociones como la ira, la ironía, el sarcasmo, en varios idiomas, que tanto asistentes virtuales como chatbots, son incapaces de procesar.
01-01-1970 | abc.es
La pesadilla de los medios: Facebook dará prioridad a los contenidos personales frente a las noticias
La red social Facebook anunció este jueves que en el muro de sus usuarios dará prioridad a los contenidos publicados por familiares o amigos frente a las publicaciones que lleven la firma de empresas o medios de comunicación. El fundador y consejero delegado de Facebook, Mark Zuckerberg, desveló estos cambios en el funcionamiento de su plataforma que están orientados a «mejorar» y a hacer más valiosas las experiencias de sus usuarios en esta red. «Recientemente hemos recibido comentarios de nuestra comunidad acerca de que el contenido público -publicaciones de negocios, marcas y medios- está desplazando los momentos personales que nos llevan a conectar más con los otros», dijo en una publicación en su perfil oficial de Facebook. Zuckerberg admitió que los vídeos y otros contenidos corporativos en Facebook han crecido mucho los últimos dos años, por lo que hay más publicaciones de este tipo que personales de amigos y familiares. El máximo responsable del gigante tecnológico sostuvo que hay evidencias académicas que apuntan a que este desequilibrio no es algo positivo. «Las investigaciones muestran que cuando usamos las redes sociales para conectar con gente que nos importa puede ser bueno para nuestro bienestar. Nos podemos sentir más conectados y menos solos y eso tiene una correlación con los índices de felicidad y salud a largo plazo», aseguró. «Por otro lado, leer artículos o ver vídeos de manera pasiva, incluso si son de entretenimiento o informativos, quizá no sea tan bueno» «Por otro lado, leer artículos o ver vídeos de manera pasiva, incluso si son de entretenimiento o informativos, quizá no sea tan bueno», añadió. Zuckerberg dijo que Facebook ha hecho cambios en esta dirección desde hace el año pasado, y adelantó que los usuarios de la red empezarán a ver próximamente más publicaciones en su muro de amigos, familiares y conocidos. Según los últimos datos oficiales conocidos, correspondientes a septiembre de 2017, los usuarios activos diarios de media en Facebook se situaron en 1.370 millones de personas. De la misma forma, sus usuarios activos mensuales, a fecha del pasado 30 de septiembre, alcanzaron los 2.070 millones de personas.
01-01-1970 | abc.es
Redes sociales: los censores del siglo XXI
La foto de Marisol en la portada de la revista Interviú es una de esas imágenes ancladas en el imaginario colectivo de la sociedad española. Su publicación supuso en su época una abrupta ruptura con la infancia de la actriz, que se convertía en mujer a los ojos de un público que la reconocía por su candidez e ingenuidad. Ahora, igual que entonces, este documento ha despertado el revuelo mediático y público, aunque por razones muy distintas y globales: Facebook ha censurado los pechos de la artista acogiéndose a su política contra los desnudos. Lo que no hizo la justicia española en el año 75 lo ha acabado llevando a cabo una red social norteamericana cuarenta años después. El periodista Juan Pablo Bellido que, tras el anuncio del cierre de Interviú, estuvo subiendo portadas de esta revista a sus perfiles en las redes sociales durante días, denunciaba a través de su cuenta de Twitter que otra plataforma de microblogging, Facebook, le había bloqueado por publicar la imagen en cuestión. La red de Mark Zuckerberg le «castigaba» con 24 horas de inhabilitación, argumentando que ese post «infringía las políticas de Facebook» y le invitaba a obtener «más información» en el servicio de ayuda. Además, le recomendaba la lectura de las «normas comunitarias» de la red social «para evitar» que se le volviera a bloquear. Los desnudos, tabú para Facebook La explicación de Facebook, como es habitual, no da pistas sobre qué norma es la que se ha infringido exactamente con la publicación. La red social es tajante en cuanto a mensajes de odio, terrorismo, pornografía, racismo o autolesiones. Además, hay un apartado especial que, con el objetivo de «fomentar un comportamiento respetuoso», hace especial alusión a los desnudos, sección a la que ha remitido Facebook a este diario tras preguntar acerca de la polémica con la portada de Interviú. «Restringimos la exhibición de desnudos para evitar que determinados sectores de nuestra comunidad global que muestran una especial sensibilidad ante ellos se puedan sentir mal; en particular, por su contexto cultural o su edad», afirman desde la red social. En concreto, se eliminan «fotografías que muestren los genitales o las nalgas en su totalidad y de una forma directa», así como las imágenes de pechos de mujer «si se ve el pezón», aunque permite documentos en los que se esté dando el pecho o los que muestren cicatrices por una mastectomía. Estas últimas excepciones se han incluido en 2017 tras reiteradas peticiones de miles de usuarios en la red después de múltiples polémicas en las que Facebook retiró archivos relacionados con la lactancia y el cáncer de mama. Twitter se endurece, pero no con Trump El pasado 18 de diciembre Twitter hizo efectiva su nueva regla para bloquear las cuentas que propaguen contenido amenazante o que ensalcen el terrorismo y la violencia contra civiles. La decisión la tomaba tras la acusación de que diferentes grupos extremistas, tanto islámicos como aquellos que alababan la «supremacía blanca» y crearon altercados en Virginia (EE.UU.), hacían uso de esta red de «microblogging» para darse publicidad e incitar al odio. «No permitimos el abuso, el acoso ni las amenazas violentas en nuestra plataforma. Cuando recibimos informes, nuestros equipos los revisan y suspenden las cuentas cuando corresponde. También contamos con un equipo dedicado que trabaja las 24 horas, todos los días para apoyar las investigaciones policiales. que se siente inseguro debe informarnos el contenido y comunicarse con la policía», explicaron fuentes de Twitter a este ABC. Muchos usuarios acogieron con recelo estas medidas, ya que intuían una posible «purga» indiscriminada, que puede afectar a la libertad de sus usuarios. Muchos de los tuits que el actual presidente de los Estados Unidos, Donald Trump, ha vertido a través de estas redes sociales serían motivo de bloqueo. Sin embargo, Twitter reconoció que no bloquearía al dirigente estadounidense, ni a otros dirigentes del estilo en aras del debate público: «Bloquear a un líder mundial desde Twitter o eliminar sus controvertidos tuits ocultaría información importante que las personas deberían poder ver y debatir. Además no silenciaría a ese líder, pero ciertamente obstaculizaría la discusión necesaria sobre sus palabras y acciones», afirmó el CEO de esta red social, Jack Dorsey. YouTube contra el contenido inapropiado Otra de las redes sociales que se ha colocado en el punto de mira ha sido YouTube. La controversia ha sido la nota dominante en 2017 y esta plataforma de vídeo ha sufrido las consecuencias, cuando muchos anunciantes decidieron retirar la publicidad de forma masiva porque no había control en los vídeos en los que se integraba. Aunque por ley esta compañía no es responsable directa del contenido que sus usuarios suben en sus cuentas, tiene la obligación, al igual que las demás redes sociales, de revisar el contenido que es reportado como «inadecuado». «Es un tema muy discutido, ya que estas empresas obtienen ingresos de contenidos que puedes ser pornográficos o que enaltecen al terrorismo, por ejemplo», explicaba a ABC Sergio Carrasco, abogado especialista en nuevas tecnologías. Esta dicotomía hacía que YouTube se tomase más «en serio» sus contenidos, e incorporase nuevos revisores a sus filas. No obstante, esta decisión no frenaba su última polémica: uno de los «youtubers» más famosos del mundo, Logan Paul, publicaba un vídeo que mostraba imágenes de un supuesto cadáver de un hombre que se había suicidado en Japón. Tras el revuelo, y con una semana de retraso, la plataforma decidía cancelar un largometraje que tenía planeado grabar en el servicio YouTube Red y que estaba implicado Paul. También cancelaba el contrato publicitario que permite a los creadores de contenido más famoso recibir una parte de las ganancias. «A la luz de los recientes acontecimientos hemos decidido eliminar los canales de YouTube de Logan Paul de Google Preferred», señalaron fuentes de la compañía norteamericana, quienes reconocieron que la conducta de este «youtuber» fue inapropiada hasta el punto que «rompió la reglas de la comunidad» al publicar un video «grotesco y perturbador». Sin embargo, igual que YouTube no retira contenidos sin un reporte negativo, tampoco cierra cuentas a no ser que violen alguna norma, como pasó a finales del pasado año tras la denuncia del diario británico The Times, con vídeos en los que, aunque no existían imágenes con pornografía explícita, se mostraban niños en actitud insinuante. En esta ocasión, YouTube vetaba a esos usuarios, aunque no se libraba de las críticas y de ser calificado como «escaparate para pedófilos».
01-01-1970 | abc.es
Alibaba crea un modelo de aprendizaje artificial que gana a la mente humana
El Instituto de Ciencia de Datos de Tecnologías (IDST), brazo de investigación del Grupo Alibaba, anunció este lunes que ha desarrollado un sistema artificial de aprendizaje profundo que obtuvo una puntuación más alta que un ser humano en una prueba de comprensión de lectura de la Universidad de Stanford. El gigante chino del comercio electrónico aseguró a través de un comunicado que esta es la primera vez que una máquina supera a los humanos en la prueba conocida como SQuAD (Stanford Question Answering Dataset), que consta de unos 100.000 pares de preguntas y respuestas basadas en más de 500 artículos de la enciclopedia virtual Wikipedia. Esta se considera la mejor prueba de comprensión de lectura de máquinas del mundo y atrae a universidades, compañías e institutos que van desde Google, Facebook, IBM y Microsoft hasta la Universidad Carnegie Mellon, la Universidad de Stanford y el Instituto de Investigación Allen, según la empresa china. El pasado 11 de enero, el "modelo de redes neuronales profundas" desarrollado por Alibaba generó una puntuación de 82,44 en Exact Match, proporcionando respuestas exactas a las preguntas y superando la puntuación de los humanos de 82,304. El modelo aprovecha la red de atención jerárquica que lee párrafos, oraciones y palabras para ubicar las fases precisas con posibles respuestas y, asegura Alibaba, tiene un valor comercial significativo. "Estamos especialmente entusiasmados porque creemos que la tecnología subyacente se puede aplicar de forma gradual a numerosas aplicaciones como el servicio al cliente, los tutoriales de los museos y las respuestas en línea a consultas médicas de pacientes, disminuyendo la necesidad del aporte humano de una manera sin precedentes", apuntó el científico jefe de procesamiento de lenguaje natural (NLP) en Alibaba, Luo Si. Por ejemplo, esta tecnología se aplicó en el pasado Día del Soltero o Doble 11, el festival global de las compras por internet, donde las máquinas respondieron a una gran cantidad de consultas entrantes.
01-01-1970 | abc.es
Así soluciona Google Photos su «algoritmo racista»: eliminando de su base de datos a gorilas y monos
Los sistemas de reconocimiento facial se han introducido en los métodos de etiquetado de determinados servicios digitales en los últimos años como Facebook o Google. Son prácticos, sí, de gran utilizada para el día a día y ayudan a organizar el material gráfico, pero aunque han evolucionado positivamente no son totalmente perfectos. En 2015, el algoritmo informático integrado en la aplicación Google Photos confundió a dos afroamericanos y los etiquetó en una imagen como «gorilas». Un error que causó gran polémica y que obligó a la compañía norteamericana a pedir disculpas además de prometer que no volvería a suceder. Después de este tiempo, la solución que ha tomado el gigante de internet para evitar que se repita de nuevo un caso similar ha sido dejar fuera de la lista de etiquetados a simios, gorilas, chimpancés, monos. Una decisión rudimentaria. Aquel episodio se descubrió de casualidad, cuando Jacky Alciné, un programador de Nueva York, comprobó que unas imágenes en las que aparecía junto con una amiga se habían guardado en una carpeta generada de manera automática bajo la etiqueta «Gorillas» -gorilas, en español-. Las acusaciones de racismo no cesaron. La empresa tuvo que recular y actualizar el servicio. Según ha comprobado el medio especializado «Wired», la respuesta de Google para que no se repita esta «confusión» ha sido borrar (literalmente) tanto a los gorilas como a algunos otros primates del léxico del servicio tales como «babuino», «gibón» o «tití». Una «extraña solución», explican los expertos, que refleja las dificultades que enfrentan las compañías tecnológicas para mejorar los sistemas de reconocimiento de imágenes que comienzan a asaltar la vida de las personas en cada esquina. El software, además, tampoco es capaz de encontrar «mujer negra» o «hombre negro» en su nueva actualización, lo que se traduce en una máxima de andar por casa; mejor ocultar el problema que solucionarlo. La aplicación y servicio web Google acumula en la actualidad unos 500 millones de usuarios, según las últimas cifras conocidas. Está concebido como un espacio para administrar y realizar copias de seguridad de las imágenes personales. Utiliza un modelo tencnológico basado en «aprendizaje automático» o «machine learning» para agrupar de manera automática las fotografías con contenido similar y ubicaciones. El sistema permite, además de «aprender» y adaptarse a los hábitos de los consumidores conforme más se utiliza, que los usuarios puedan localizar sus recuerdos personales rápidamente. «La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta» Pero no es perfecto. Un portavoz de Google confirmó a «Wired» que el término «gorila» se eliminó de las búsquedas y el etiquetado de imagen después del incidente de 2015 y que «chimpancé» y«mono» también se encuentran bloqueados en la actualidad. Porque lo cierto es que las máquinas y los sistemas de inteligencia artificial requieren de un entrenamiento, que generalmente lo hacen seres humanos, aunque los sistemas más avanzados son capaces de «aprender» mediante redes neuronales por capas más allá de los habituales supuestos y casos prácticos que almacenar. «La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta», explican fuentes de la compañía norteamericana al mismo medio. El escenario, además, es incierto, puesto que ya se trabaja en el desembarco de vehículos autónomos que, mediante algoritmos, programas informáticos y sensores, deben discriminar a peatones de animales y objetos. Los ingenieros de aprendizaje automático que trabajan en estos sistemas deben preocuparse por los «casos de excepción» que no se encuentran en sus bases de datos. «Es muy difícil modelar todo lo que verá su sistema una vez que esté en funcionamiento», apunta Vicente Ordóñez Román, profesor de la Universidad de Virginia, a «Wired». ABC ha comprobado que, efectivamente, cuando el usuario sube una imagen de un gorila, el sistema no ofrece como sugerencia catalogarlo.
01-01-1970 | abc.es
¿En qué te afectarán los próximos cambios de Facebook?
Mark Zuckerberg anunció a finales de año que su propósito para 2018 no era apuntarse al gimnasio o comer más sano, sino «arreglar» Facebook. Un cometido que comienza con una serie de cambios que afectarán al modo en que se presenta la interfaz a sus usuarios, que ya no verán su entrada bombardeada con el famoso «contenido relevante» que se crea a partir de las búsquedas de sus integrantes. El creador de la famosa red social explicó que ahora la intención es «tener interacciones más significativas» y acercar a sus usuarios: esto es, calidad y familiaridad antes que cantidad y globalidad. El cambio de algoritmo: un punto de inflexión Todo esto lo logrará a través del cambio en el algoritmo del News Feed -la interfaz que le aparece al usuario con las actualizaciones de sus amigos, páginas a las que sigue y contenidos que Facebook juzga que pueden ser relevantes para cada cuenta-. «Estoy cambiando el objetivo que le doy a nuestros equipos de productos para centrarse en ayudarte a encontrar contenido relevante y así tener interacciones sociales más significativas», señaló Zuckerberg en un comunicado compartido en su página en la red social. Con ello, disminuirán las apariciones de noticias de los editores de contenido, sobre todo de medios de comunicación. «El contenido del editor se consume pasivamente y no se habla de él descenderá. El tiempo general en Facebook decrecerá, pero creemos que es lo correcto», afirmó al medio especializado TechCrunch Adam Moseri, vicepresidente de Noticias de esta red social, palabras que después utilizaría el propio Zuckerberg en un comunicado de hace unos días. Las primeras consecuencias Así, se priorizarán las noticias «que inspiren el debate de ida y vuelta en los comentarios», por encima de acciones como «compartir» o calificar con «me gusta». Por eso, las publicaciones de los amigos, que normalmente congregan más este tipo de interacción, serán las grandes beneficiadas con el cambio. Aún no ha entrado este cambio en vigor, pero muchos editores de noticias esperan que baje el tráfico de sus páginas. Las razones del cambio La versión oficial de Facebook que explica esta modificación está estudios que afirman que las redes sociales solo son buenas si se usan para «conectarse con las personas que nos importan». Por ello, el cambio en el algoritmo vendría a reforzar el «sentiemiento de comunidad» de la red social, y estaría en la línea de otras medidas como la de «castigar» las publicaciones que buscan reacciones o que el usuario comparta para conseguir alguna recompensa. Pero también planea la mala reputación que las «fake news» -noticias falsas- supusieron para Facebook con las elecciones estadounidenses en 2016, cuando «ejércitos de cibersoldados» propagaron informaciones falsas para influir en los votantes. Experiencias previas No se trata de una experiencia totalmente nueva. Ya en diciembre de 2013, Facebook cambió su algoritmo para promocionar «artículos de alta calidad» sobre «una foto de meme alojada en otro lugar que no sea Facebook», recuerdan desde The Guardian. Este cambio también afectaba a publicaciones que buscaban el «clic» con diferentes cebos. Como consecuencia, el portal Upworthy vio su tráfico reducido a la mitad en el mes posterior al cambio del algoritmo, «un declive del que nunca se ha recuperado del todo», aseguran desde este medio. Posteriormente, y de cara a «probar» este nuevo sistema, se instauró en pequeños países, como Guatemala, la función «explorar», desapareciendo las noticias de «Feed» por completo. Los periodistas informaron que la cifra de lectores se redujo a la mitad después del cambio, lo que a nivel global podría significar un gran impacto para el tráfico de grandes cabeceras que se nutren de Facebook en sus visitas. La misma reacción se temen organizaciones como las ONG, que vean su influencia disminuida por el cambio de este algoritmo, por lo que muchos ya han alertado de las malas consecuencias que puede tener este cambio. El futuro de Facebook Mack Zuckerberg ha afirmado que su intención con este cambio es que «el tiempo que las personas pasan en Facebook sea más valioso», aunque admite que las visitas caerán, así como «algunas medidas de compromiso», que pueden estar relacionadas tanto con la frecuencia de uso de sus usuarios como con los ingresos en publicidad de la red social. Pero asegura: «Si hacemos lo correcto, creo que será bueno para nuestra comunidad y nuestro negocio a largo plazo».
01-01-1970 | abc.es
Así pretende WhatsApp acabar con los bulos y las cadenas de mensajes falsos
La lucha contra las llamadas «fake news» o «noticias falsas» que se libran en las principales redes sociales tiene un episodio adicional: la cadena de mensajes que suelen enviarse a través de aplicaciones de mensajería instantánea como WhatsApp y que, por lo general, suelen contener falsedades. Consiste en una retahíla de mensajes que pretenden alarmar a la población. No es algo novedoso. Los bulos y mentiras se han difundido siempre por los canales informativos de la época. Pero ahora, por la rapidez e inmediatez de internet quedan visibilizadas. No se salva nadie, tampoco WhatsApp, empresa filial de Facebook, que cuenta con su propio formato para promocionar las noticias malintencionadas, la cadena de mensajes. Seguro que a más de uno le habrá llegado en alguna ocasión ese mensaje que decía que el servicio iba a ser de pago si no lo enviabas a diez contactos. Pues eso. Se suele presentar como un mensaje informativo que trata de «ayudar». Aparecen con mayor fuerza cuando se produce un acontecimiento de gran relevancia como un atentado o un anuncio político de importancia. La facilidad a la hora de compartirlo provoca que estas cadenas inunden los chats de WhatsApp, sobre todo los grupales, cuyo origen es difícil de descubrir. Pero para reducir su impacto, WhatsApp prepara un nuevo método; incorporar una etiqueta o alerta que informe a los usuarios que el mensaje que va a enviar puede contener errores. Según ha desvelado «WABetaInfo», medio especializado que avanza los nuevos servicios de esta popular aplicación, la idea es añadir un sistema capaz de avisar con indicadores o «flags» -«banderas», en español, nombre con el que se identifica a este tipo de alertas- si se trata de un mensaje que se ha reenviado muchas veces y que, por tanto, es susceptible de contener errores. Imagen de una conversación de WhatsApp - WABetaInfo Este método, sin embargo, no evitará, en caso que finalmente se ponga en marcha, que impida compartirse estas cadenas, pero al menos informará al usaurio que es posible que reenvíe un contenido calificado de inapropiado. La «app», para ello, requerirá de tener un cierto acceso al contenido difundido para certificar que se trata de una cadena de mensajes. El mensaje de advertencia se mostrará en la parte superior del chat de WhatsApp, debajo del nombre del usuario remitente. Según las primeras capturas, el usuario receptor verá esa alerta cuando intente reenviar dicho mensaje. El objetivo, por tanto, es mentalizar al usuario antes de que cometa el error de difundir por inercia una cadena de mensajes inapropiada. Por el momento, se desconoce la fecha de disponibilidad.
01-01-1970 | abc.es
Facebook investiga si Rusia interfirió en el Brexit
La red social Facebook ha iniciado una investigación sobre la posible influencia de Rusia en las elecciones de 2016 que decidieron la salida de Reino Unido de la Unión Europea. Así lo afirma un comunicado de la compañía, firmado por el director de políticas de la plataforma, Simon Milner, que ha sido enviada este miércoles a los miembros de la Cámara de los Comunes que también están analizando el asunto, según ha informado Bloomberg. Tanto Facebook como Twitter han explicado previamente a los legisladores de Reino Unido que encontraron «un uso mínimo» de sus plataformas en comparación con la campaña de desinformación antes de las elecciones presidenciales de Estados Unidos por parte de Rusia. Las compañías han analizado las cuentas que los funcionarios de inteligencia de EE.UU. señalaron como culpables de esta acción, enmarcada dentro de las denominadas «Fake news», aunque los gobernantes británicos presionaron a estas empresas para llevar a cabo un análisis más profundo para determinar si se produjo el mismo caso en las elecciones que desencadenaron el Brexit. «Nos comprometemos a hacer todos los esfuerzos razonables para establecer si hubo o no una actividad coordinada similar a la que se encontró en los EE.UU. y enviaremos un informe tan pronto como se haya completado el trabajo», ha asegurado Milner en el escrito. La compañía se ha marcado «varias semanas» com plazo para completar la revisión, y ha solicitado la información recabada por las evaluaciones de inteligencia de Reino Unido, así como otras que puedan ayudar en el asunto. Por su parte, Twitter, que tiene hasta el jueves para decidir si llevará a cabo una acción similar, aún no se ha pronunciado al respecto, aunque si ha adelantado que comenzará a notificar a los usuarios estadounidenses que pudieran haber estado expuestos a la propaganda rusa. Proactividad de las redes sociales El presidente del comité digital, cultural y de medios, Damian Collins, ha advertido que las compañías de redes sociales deben ser más proactivas en la investigación del uso indebido de sus servicios en lugar de esperar la acción de los reguladores. «Están mejor ubicados para investigar la actividad en su plataforma», ha aseverado. Facebook ya ha anunciado los primeros pasos para luchar contra el fenómeno de las «Fake news». Así, la compañía ha anunciado que cambiará el algoritmo de su «Feed» de noticias, en las que primará las informaciones de amigos frente a las de empresas y medios particulares.
01-01-1970 | abc.es
Facebook prepara una función para ver vídeos en grupo
Facebook ha iniciado las pruebas de una nueva función que permitirá que los miembros de un grupo de la red social puedan ver un mismo vídeo de forma simultánea. Estos usuarios podrán compartir comentarios y reacciones sobre este contenido, que será seleccionado por los administradores del grupo. La vicepresidenta de Producto de Facebook, Fidji Simo, ha anunciado a través de una publicación en la plataforma que una nueva función, llamada Watch Party, ha comenzado a ser probada en algunos grupos de la red social. A través de esta característica, los integrantes podrán ver de forma simultánea un vídeo y compartir comentarios y reacciones sobre el mismo entre ellos. Los administradores o moderadores del grupo serán los encargados de seleccionar el contenido, que podrá ser cualquier vídeo público de Facebook, tanto en directo como previamente grabado. Simo ha explicado que el objetivo de la compañía es extender la «interactividad» y «comunidad» de su servicio de «streaming» de vídeos Facebook Live a otras experiencias audiovisuales de la plataforma. La red social ha elegido los grupos como primer espacio de implantación de Watch Party por los mil millones de usuarios que los utilizan mensualmente «para conectarse alrededor de sus pasiones y aficiones» y el vídeo es una «parte enorme» de esta interacción, ha explicado la vicepresidenta de Producto de Facebook. Fidji Simo ha indicado que esta nueva característica de los grupos forma parte de la nueva apuesta de la plataforma por potenciar las «conexiones personales», como anunció el fundador de la compañía, Mark Zuckerberg, el pasado viernes. El máximo dirigente de Facebook avanzó entonces que la red social promocionará las publicaciones de usuarios frente al contenido corporativo. Facebook prevé expandir esta nueva característica «en el futuro» a más grupos y usuarios, ha comentado Simo.
970