Noticias de "facebook"

01-01-1970 | abc.es
Facebook y Xiaomi se alían en Oculus Go, las gafas de realidad virtual «low cost»
Se confirma el rumor: Xiaomi será el compañero tecnológico de Facebook en la creación de las Oculus Go, el modelo «low cost» de gafas de realidad virtual autónomas y que tendrán un precio de entrada en el mercado de 199 dólares. Se espera que lleguen durante 2018 y ya existen vídeos con una muestra de su diseño. Así lo ha confirmado el máximo responsable de realidad virtual de Facebook -compañía a la que pertenece Oculus-, Hugo Barra, en el marco de la feria Consumer Electronics Show (CES 2018), que se celebra esta semana en Las Vegas. Además de su precio, su máximo atractivo está en que este dispositivo no dependerá de un ordenador o un smartphone para funcionar, ya que utiliza un procesador Qualcomm Snapdragon 821 integrado en las propias gafas y que lo convierte en un dispositivo totalmente independiente. Además, no tiene cables y cuenta con un sistema de audio integrado en el propio diseño, una de las características más llamativas y esperadas por un precio muy asequible. En cuanto a la pantalla, utilizan una LCD WQHD de 2.560X1.440 pixeles. Tal y como se ha indicado en el evento, las Oculus Go son compatibles con las aplicaciones de las Samsung Gear VR. Por lo tanto, la plataforma ya de por si cuenta con un amplio catálogo de apps operativas. No se ha revelado mucho más acerca de este dispositivo, salvo que tendrá un modelo específico para el mercado chino, Mi VR Standalone, que tendrá similares características a las Oculus Go. «Xiaomi está trabajando directamente con los desarrolladores de Oculus para localizar algunos de los contenidos más populares de la Tienda Oculus y llevarlos a la tienda Mi VR en China», han afirmado desde la web de Oculus.
01-01-1970 | abc.es
Facebook planea sumarse a la batalla de los altavoces inteligentes
La batalla de los altavoces inteligentes no ha hecho más que comenzar, pero Amazon con Echo y Google con Home empiezan a liderar esta innovación gracias a su integración en infinidad de otros productos. Mientras Samsung y Apple descubren sus cartas, la multinacional Facebook quiere sumarse a la fiesta con un «gadget» similar al de sus competidores. Según desvela el medio especializado «Cheddar», la compañía norteamericana planea lanzar en mitad de este mismo año un altavoz inteligente que, por el momento, se conoce por su nombre el clave «Portal». Una idea que se ha rumoreado en los últimos meses después de que se conociera una patente, pero que todo apunta a que se hará real próximamente. Son pocos los detalles que han trascendido, pero se cree que el «gadget», diseñado para colocarse en el salón, servirá para controlar algunos servicios digitales de la propia compañía e, incluso, de terceros como Netflix o Spotify. Sin embargo, Facebook tiene la intención de lanzar Portal como un método para que las familias y amigos permanezcan conectados a través del videochat y otras funciones sociales ya incluidas en la red social. Mediante instrucciones de voz, los usuarios podrán pedir información de todo tipo. Además, y aunque se trata de una filtración, el dispositivo contará con una pantalla táctil de 12 pulgadas al estilo del aparato presentado por Lenovo en la edición de la feria CES de Las Vegas de este año. Una idea ya aprovechada por Amazon en su Echo Show. Por el momento se desconoce el precio, pero se cree que costará unos 499 dólares. Entre otros aspectos de los que se habla se incluye una cámara con reconocimiento facial, una tecnología que ya ha empleado la compañía en algunos de sus servicios, y que permitirá asociar los rostros a sus cuentas de la red social. Éste será, en caso que finalmente se concrete, uno de los proyectos de hardware más ambiciosos que han surgido del laboratorio de ideas de Facebook, la división conocida como Building 8, dirigida hasta su reciente salida por Regina Dugan.
01-01-1970 | abc.es
YouTube admite fallos a la hora de filtrar y bloquear los videos inapropiados
Es difícil equilibrar la balanza. Libertad de expresión, ética, sentido común, bloqueo los mensajes inapropiados. Ponderar estas ideas es un quebradero de cabeza para las empresas propietarias de servicios digitales de notable éxito como Facebook o Google. Cualquier acción puede destapar las iras de un sector de la comunidad. Las medidas de filtrado de contenidos por medio del uso de sistemas informatizados y algoritmos se ha demostrado, por el momento, insuficientes para combatir esta lacra que amenaza con hacer explotar las redes sociales. Que YouTube es la mayor red de videos del planeta no hay duda. Que a su alrededor se ha inaugurado una nueva forma de consumir contenidos audiovisuales, dando paso a una nueva generación de creadores, los llamados «youtubers», tampoco se le escapa a nadie. Pero que también han surgido problemas adicionales que empañan parte de su fuerza es un escenario difícil de gestionar dado que se publican infinidad de videos cada minuto. La polémica protagonizada por el «youtuber» Logan Paul, que subió en su canal que suma más de 15 millones de suscriptores imágenes de un cadáver, no hace más que echar leña al fuego de las dudas acerca de la impunidad y falta de cintura de este tipo de plataformas para combatir los mensajes de odio y fuera de lugar. La compañía, filial del grupo Alphabet, ha prometido que estudia nuevas medidas para evitar que este tipo de casos vuelva a suceder en el futuro. YouTube, en una serie de mensajes publicados en su perfil de Twitter, ha reconocido que la conducta de este «youtuber» en particular fue inapropiada hasta el punto que «rompió la reglas de la comunidad» al publicar un video «grotesco y perturbador». «El suicidio no es un chiste, ni debería utilizarse para ganar visitas. Como Anna Akana explica perfectamente: "ese cuerpo era una persona de alguien querido. No entres en un bosque de suicidios con una cámara y digas que es para crear conciencia acerca de la salud mental"», relata la compañía. La plataforma estudia las posibles consecuencias de este tipo de actos. «Nos ha llevado mucho tiempo publicar una respuesta, pero hemos escuchado lo que la comunidad ha señalado. Sabemos que las acciones de un creador pueden afectar a toda la comunidad, por lo que pronto compartiremos más detalles sobre los pasos que daremos para asegurarnos de que un vídeo como este jamás vuelva a distribuirse», promete. En el último año el tratamiento y difusión de contenidos, algunos de ellos con errores y falsedades, ha iniciado un debate acerca de la responsabilidad de las redes sociales en lo que ha venido a denominarse «fake news». Las plataformas digitales, además, se enfrentan a otro problema, la impunidad sobre aquellos usuarios que, al calor del anonimato, son capaces de acosar a otros.
01-01-1970 | abc.es
Inteligencia artificial para todo: la nueva matraca que nos quieren vender
El Consumer Electronics Show (CES 2018) de Las Vegas, el congreso más importante de tecnología del año, tiene un nuevo protagonista desde hace dos ediciones: la inteligencia artificial. Máquinas cognitivas capaces de aprender por sí mismas que prometen revolucionar la industria, y que en cada convocatoria del CES se sitúan un paso más cerca de hacerse realidad. Una de las aplicaciones más comunes de la inteligencia artificial, con la que todos hemos tenido contacto, son los asistentes virtuales, como Siri de Apple, el asistente de Google, Alexa de Amazon o Cortana de Microsoft. Todos ellos luchan por convertirse en los líderes del mercado, ya que en los próximos años serán el interfaz con el que los usuarios interactuarán con sus aplicaciones y servicios digitales. Pero no todos sobrevivirán a esta dura competencia. Por ejemplo, recientemente Facebook ha anunciado el cierre de M, su propia propuesta de asistente personal. De hecho, el mercado de esta herramienta despierta tanto interés por parte del público general que el producto más vendido de Amazon en Estados Unidos durante las navidades ha sido Amazon Dot, el pequeño altavoz equipado con Alexa. Google Assistant da el relevo a Alexa Durante este CES hemos sido testigos de cómo el último asistente en incorporarse al mercado, el de Google (disponible desde noviembre en español), ha empezado a invadir diferentes espacios, igual que hizo Alexa el año pasado. En el hogar, LG, Lenovo, Sony y JBL han presentado sus altavoces equipados con el asistente de Google, sumándose así, a Bang & Olufsen, Braven o iHome. Ofreciendo un amplio catálogo de dispositivos con el asistente del buscador destinados a casa. En el coche, fabricantes como Ford, Volkswagen, Volvo, Nissan o General Motors, que ya contaban con Android Auto en sus automóviles tendrán en poco tiempo el asistente. Éste será capaz de reproducir música de Spotify, contestar un Whatsapp o establecer una ruta de navegación sólo con la voz como interfaz, sin necesidad de quitar la vista de la carretera. Algunos modelos de Mercedes y BMW, ya cuentan con el asistente después de la última actualización. Todos intentan «subirse al carro» de la AI Hablamos con Florian Deleuil, Lead Product Manager del Smart Home Bot de Netatmo, empresa que ha presentado su nuevo asistente virtual para el hogar en el marco del CES. «La inteligencia artificial es un software que imita el comportamiento humano. Si bien hay muchos métodos para hacerlo, el más conocido se produce por el aprendizaje profundo o "deep learning". Se trata de proporcionar una gran cantidad de datos a un ordenador con el propósito de analizar y reconocer patrones que se aplicarán a nuevos datos», explica Deleuil. Los chatbots, una derivada de los asistentes virtuales, se usan sobre todo para servicios de atención al cliente y tareas simples como verificar una cuenta bancaria o reservar un billete de avión. Por ejemplo, a través del Netatmo Smart Chat Bot, las usuarios tienen la capacidad de controlar toda su casa mediante mensajes de texto. Preguntamos a Florian acerca de si la inteligencia artificial y los asistentes virtuales se tratan de una moda ensalzada por la industria o realmente nos encontramos ante un avance paradigmático. El responsable de Netatmo afirmó que cada vez que se produce un avance tecnológico, todo el sector intenta «subirse al carro», creando este efecto exagerado de interés que estamos viviendo. «Pero, al final sólo unas pocas empresas serán capaces de innovar y generar un cambio auténtico», ha afirmado. Todavía hay mucho que avanzar para que estos asistentes y chatbots comprendan la complejidad del lenguaje humano. Si bien ha habido muchas mejoras, todavía hay algunos obstáculos, como la comprensión de las emociones como la ira, la ironía, el sarcasmo, en varios idiomas, que tanto asistentes virtuales como chatbots, son incapaces de procesar.
01-01-1970 | abc.es
La pesadilla de los medios: Facebook dará prioridad a los contenidos personales frente a las noticias
La red social Facebook anunció este jueves que en el muro de sus usuarios dará prioridad a los contenidos publicados por familiares o amigos frente a las publicaciones que lleven la firma de empresas o medios de comunicación. El fundador y consejero delegado de Facebook, Mark Zuckerberg, desveló estos cambios en el funcionamiento de su plataforma que están orientados a «mejorar» y a hacer más valiosas las experiencias de sus usuarios en esta red. «Recientemente hemos recibido comentarios de nuestra comunidad acerca de que el contenido público -publicaciones de negocios, marcas y medios- está desplazando los momentos personales que nos llevan a conectar más con los otros», dijo en una publicación en su perfil oficial de Facebook. Zuckerberg admitió que los vídeos y otros contenidos corporativos en Facebook han crecido mucho los últimos dos años, por lo que hay más publicaciones de este tipo que personales de amigos y familiares. El máximo responsable del gigante tecnológico sostuvo que hay evidencias académicas que apuntan a que este desequilibrio no es algo positivo. «Las investigaciones muestran que cuando usamos las redes sociales para conectar con gente que nos importa puede ser bueno para nuestro bienestar. Nos podemos sentir más conectados y menos solos y eso tiene una correlación con los índices de felicidad y salud a largo plazo», aseguró. «Por otro lado, leer artículos o ver vídeos de manera pasiva, incluso si son de entretenimiento o informativos, quizá no sea tan bueno» «Por otro lado, leer artículos o ver vídeos de manera pasiva, incluso si son de entretenimiento o informativos, quizá no sea tan bueno», añadió. Zuckerberg dijo que Facebook ha hecho cambios en esta dirección desde hace el año pasado, y adelantó que los usuarios de la red empezarán a ver próximamente más publicaciones en su muro de amigos, familiares y conocidos. Según los últimos datos oficiales conocidos, correspondientes a septiembre de 2017, los usuarios activos diarios de media en Facebook se situaron en 1.370 millones de personas. De la misma forma, sus usuarios activos mensuales, a fecha del pasado 30 de septiembre, alcanzaron los 2.070 millones de personas.
01-01-1970 | abc.es
Redes sociales: los censores del siglo XXI
La foto de Marisol en la portada de la revista Interviú es una de esas imágenes ancladas en el imaginario colectivo de la sociedad española. Su publicación supuso en su época una abrupta ruptura con la infancia de la actriz, que se convertía en mujer a los ojos de un público que la reconocía por su candidez e ingenuidad. Ahora, igual que entonces, este documento ha despertado el revuelo mediático y público, aunque por razones muy distintas y globales: Facebook ha censurado los pechos de la artista acogiéndose a su política contra los desnudos. Lo que no hizo la justicia española en el año 75 lo ha acabado llevando a cabo una red social norteamericana cuarenta años después. El periodista Juan Pablo Bellido que, tras el anuncio del cierre de Interviú, estuvo subiendo portadas de esta revista a sus perfiles en las redes sociales durante días, denunciaba a través de su cuenta de Twitter que otra plataforma de microblogging, Facebook, le había bloqueado por publicar la imagen en cuestión. La red de Mark Zuckerberg le «castigaba» con 24 horas de inhabilitación, argumentando que ese post «infringía las políticas de Facebook» y le invitaba a obtener «más información» en el servicio de ayuda. Además, le recomendaba la lectura de las «normas comunitarias» de la red social «para evitar» que se le volviera a bloquear. Los desnudos, tabú para Facebook La explicación de Facebook, como es habitual, no da pistas sobre qué norma es la que se ha infringido exactamente con la publicación. La red social es tajante en cuanto a mensajes de odio, terrorismo, pornografía, racismo o autolesiones. Además, hay un apartado especial que, con el objetivo de «fomentar un comportamiento respetuoso», hace especial alusión a los desnudos, sección a la que ha remitido Facebook a este diario tras preguntar acerca de la polémica con la portada de Interviú. «Restringimos la exhibición de desnudos para evitar que determinados sectores de nuestra comunidad global que muestran una especial sensibilidad ante ellos se puedan sentir mal; en particular, por su contexto cultural o su edad», afirman desde la red social. En concreto, se eliminan «fotografías que muestren los genitales o las nalgas en su totalidad y de una forma directa», así como las imágenes de pechos de mujer «si se ve el pezón», aunque permite documentos en los que se esté dando el pecho o los que muestren cicatrices por una mastectomía. Estas últimas excepciones se han incluido en 2017 tras reiteradas peticiones de miles de usuarios en la red después de múltiples polémicas en las que Facebook retiró archivos relacionados con la lactancia y el cáncer de mama. Twitter se endurece, pero no con Trump El pasado 18 de diciembre Twitter hizo efectiva su nueva regla para bloquear las cuentas que propaguen contenido amenazante o que ensalcen el terrorismo y la violencia contra civiles. La decisión la tomaba tras la acusación de que diferentes grupos extremistas, tanto islámicos como aquellos que alababan la «supremacía blanca» y crearon altercados en Virginia (EE.UU.), hacían uso de esta red de «microblogging» para darse publicidad e incitar al odio. «No permitimos el abuso, el acoso ni las amenazas violentas en nuestra plataforma. Cuando recibimos informes, nuestros equipos los revisan y suspenden las cuentas cuando corresponde. También contamos con un equipo dedicado que trabaja las 24 horas, todos los días para apoyar las investigaciones policiales. que se siente inseguro debe informarnos el contenido y comunicarse con la policía», explicaron fuentes de Twitter a este ABC. Muchos usuarios acogieron con recelo estas medidas, ya que intuían una posible «purga» indiscriminada, que puede afectar a la libertad de sus usuarios. Muchos de los tuits que el actual presidente de los Estados Unidos, Donald Trump, ha vertido a través de estas redes sociales serían motivo de bloqueo. Sin embargo, Twitter reconoció que no bloquearía al dirigente estadounidense, ni a otros dirigentes del estilo en aras del debate público: «Bloquear a un líder mundial desde Twitter o eliminar sus controvertidos tuits ocultaría información importante que las personas deberían poder ver y debatir. Además no silenciaría a ese líder, pero ciertamente obstaculizaría la discusión necesaria sobre sus palabras y acciones», afirmó el CEO de esta red social, Jack Dorsey. YouTube contra el contenido inapropiado Otra de las redes sociales que se ha colocado en el punto de mira ha sido YouTube. La controversia ha sido la nota dominante en 2017 y esta plataforma de vídeo ha sufrido las consecuencias, cuando muchos anunciantes decidieron retirar la publicidad de forma masiva porque no había control en los vídeos en los que se integraba. Aunque por ley esta compañía no es responsable directa del contenido que sus usuarios suben en sus cuentas, tiene la obligación, al igual que las demás redes sociales, de revisar el contenido que es reportado como «inadecuado». «Es un tema muy discutido, ya que estas empresas obtienen ingresos de contenidos que puedes ser pornográficos o que enaltecen al terrorismo, por ejemplo», explicaba a ABC Sergio Carrasco, abogado especialista en nuevas tecnologías. Esta dicotomía hacía que YouTube se tomase más «en serio» sus contenidos, e incorporase nuevos revisores a sus filas. No obstante, esta decisión no frenaba su última polémica: uno de los «youtubers» más famosos del mundo, Logan Paul, publicaba un vídeo que mostraba imágenes de un supuesto cadáver de un hombre que se había suicidado en Japón. Tras el revuelo, y con una semana de retraso, la plataforma decidía cancelar un largometraje que tenía planeado grabar en el servicio YouTube Red y que estaba implicado Paul. También cancelaba el contrato publicitario que permite a los creadores de contenido más famoso recibir una parte de las ganancias. «A la luz de los recientes acontecimientos hemos decidido eliminar los canales de YouTube de Logan Paul de Google Preferred», señalaron fuentes de la compañía norteamericana, quienes reconocieron que la conducta de este «youtuber» fue inapropiada hasta el punto que «rompió la reglas de la comunidad» al publicar un video «grotesco y perturbador». Sin embargo, igual que YouTube no retira contenidos sin un reporte negativo, tampoco cierra cuentas a no ser que violen alguna norma, como pasó a finales del pasado año tras la denuncia del diario británico The Times, con vídeos en los que, aunque no existían imágenes con pornografía explícita, se mostraban niños en actitud insinuante. En esta ocasión, YouTube vetaba a esos usuarios, aunque no se libraba de las críticas y de ser calificado como «escaparate para pedófilos».
01-01-1970 | abc.es
Alibaba crea un modelo de aprendizaje artificial que gana a la mente humana
El Instituto de Ciencia de Datos de Tecnologías (IDST), brazo de investigación del Grupo Alibaba, anunció este lunes que ha desarrollado un sistema artificial de aprendizaje profundo que obtuvo una puntuación más alta que un ser humano en una prueba de comprensión de lectura de la Universidad de Stanford. El gigante chino del comercio electrónico aseguró a través de un comunicado que esta es la primera vez que una máquina supera a los humanos en la prueba conocida como SQuAD (Stanford Question Answering Dataset), que consta de unos 100.000 pares de preguntas y respuestas basadas en más de 500 artículos de la enciclopedia virtual Wikipedia. Esta se considera la mejor prueba de comprensión de lectura de máquinas del mundo y atrae a universidades, compañías e institutos que van desde Google, Facebook, IBM y Microsoft hasta la Universidad Carnegie Mellon, la Universidad de Stanford y el Instituto de Investigación Allen, según la empresa china. El pasado 11 de enero, el "modelo de redes neuronales profundas" desarrollado por Alibaba generó una puntuación de 82,44 en Exact Match, proporcionando respuestas exactas a las preguntas y superando la puntuación de los humanos de 82,304. El modelo aprovecha la red de atención jerárquica que lee párrafos, oraciones y palabras para ubicar las fases precisas con posibles respuestas y, asegura Alibaba, tiene un valor comercial significativo. "Estamos especialmente entusiasmados porque creemos que la tecnología subyacente se puede aplicar de forma gradual a numerosas aplicaciones como el servicio al cliente, los tutoriales de los museos y las respuestas en línea a consultas médicas de pacientes, disminuyendo la necesidad del aporte humano de una manera sin precedentes", apuntó el científico jefe de procesamiento de lenguaje natural (NLP) en Alibaba, Luo Si. Por ejemplo, esta tecnología se aplicó en el pasado Día del Soltero o Doble 11, el festival global de las compras por internet, donde las máquinas respondieron a una gran cantidad de consultas entrantes.
01-01-1970 | abc.es
Así soluciona Google Photos su «algoritmo racista»: eliminando de su base de datos a gorilas y monos
Los sistemas de reconocimiento facial se han introducido en los métodos de etiquetado de determinados servicios digitales en los últimos años como Facebook o Google. Son prácticos, sí, de gran utilizada para el día a día y ayudan a organizar el material gráfico, pero aunque han evolucionado positivamente no son totalmente perfectos. En 2015, el algoritmo informático integrado en la aplicación Google Photos confundió a dos afroamericanos y los etiquetó en una imagen como «gorilas». Un error que causó gran polémica y que obligó a la compañía norteamericana a pedir disculpas además de prometer que no volvería a suceder. Después de este tiempo, la solución que ha tomado el gigante de internet para evitar que se repita de nuevo un caso similar ha sido dejar fuera de la lista de etiquetados a simios, gorilas, chimpancés, monos. Una decisión rudimentaria. Aquel episodio se descubrió de casualidad, cuando Jacky Alciné, un programador de Nueva York, comprobó que unas imágenes en las que aparecía junto con una amiga se habían guardado en una carpeta generada de manera automática bajo la etiqueta «Gorillas» -gorilas, en español-. Las acusaciones de racismo no cesaron. La empresa tuvo que recular y actualizar el servicio. Según ha comprobado el medio especializado «Wired», la respuesta de Google para que no se repita esta «confusión» ha sido borrar (literalmente) tanto a los gorilas como a algunos otros primates del léxico del servicio tales como «babuino», «gibón» o «tití». Una «extraña solución», explican los expertos, que refleja las dificultades que enfrentan las compañías tecnológicas para mejorar los sistemas de reconocimiento de imágenes que comienzan a asaltar la vida de las personas en cada esquina. El software, además, tampoco es capaz de encontrar «mujer negra» o «hombre negro» en su nueva actualización, lo que se traduce en una máxima de andar por casa; mejor ocultar el problema que solucionarlo. La aplicación y servicio web Google acumula en la actualidad unos 500 millones de usuarios, según las últimas cifras conocidas. Está concebido como un espacio para administrar y realizar copias de seguridad de las imágenes personales. Utiliza un modelo tencnológico basado en «aprendizaje automático» o «machine learning» para agrupar de manera automática las fotografías con contenido similar y ubicaciones. El sistema permite, además de «aprender» y adaptarse a los hábitos de los consumidores conforme más se utiliza, que los usuarios puedan localizar sus recuerdos personales rápidamente. «La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta» Pero no es perfecto. Un portavoz de Google confirmó a «Wired» que el término «gorila» se eliminó de las búsquedas y el etiquetado de imagen después del incidente de 2015 y que «chimpancé» y«mono» también se encuentran bloqueados en la actualidad. Porque lo cierto es que las máquinas y los sistemas de inteligencia artificial requieren de un entrenamiento, que generalmente lo hacen seres humanos, aunque los sistemas más avanzados son capaces de «aprender» mediante redes neuronales por capas más allá de los habituales supuestos y casos prácticos que almacenar. «La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta», explican fuentes de la compañía norteamericana al mismo medio. El escenario, además, es incierto, puesto que ya se trabaja en el desembarco de vehículos autónomos que, mediante algoritmos, programas informáticos y sensores, deben discriminar a peatones de animales y objetos. Los ingenieros de aprendizaje automático que trabajan en estos sistemas deben preocuparse por los «casos de excepción» que no se encuentran en sus bases de datos. «Es muy difícil modelar todo lo que verá su sistema una vez que esté en funcionamiento», apunta Vicente Ordóñez Román, profesor de la Universidad de Virginia, a «Wired». ABC ha comprobado que, efectivamente, cuando el usuario sube una imagen de un gorila, el sistema no ofrece como sugerencia catalogarlo.
01-01-1970 | abc.es
¿En qué te afectarán los próximos cambios de Facebook?
Mark Zuckerberg anunció a finales de año que su propósito para 2018 no era apuntarse al gimnasio o comer más sano, sino «arreglar» Facebook. Un cometido que comienza con una serie de cambios que afectarán al modo en que se presenta la interfaz a sus usuarios, que ya no verán su entrada bombardeada con el famoso «contenido relevante» que se crea a partir de las búsquedas de sus integrantes. El creador de la famosa red social explicó que ahora la intención es «tener interacciones más significativas» y acercar a sus usuarios: esto es, calidad y familiaridad antes que cantidad y globalidad. El cambio de algoritmo: un punto de inflexión Todo esto lo logrará a través del cambio en el algoritmo del News Feed -la interfaz que le aparece al usuario con las actualizaciones de sus amigos, páginas a las que sigue y contenidos que Facebook juzga que pueden ser relevantes para cada cuenta-. «Estoy cambiando el objetivo que le doy a nuestros equipos de productos para centrarse en ayudarte a encontrar contenido relevante y así tener interacciones sociales más significativas», señaló Zuckerberg en un comunicado compartido en su página en la red social. Con ello, disminuirán las apariciones de noticias de los editores de contenido, sobre todo de medios de comunicación. «El contenido del editor se consume pasivamente y no se habla de él descenderá. El tiempo general en Facebook decrecerá, pero creemos que es lo correcto», afirmó al medio especializado TechCrunch Adam Moseri, vicepresidente de Noticias de esta red social, palabras que después utilizaría el propio Zuckerberg en un comunicado de hace unos días. Las primeras consecuencias Así, se priorizarán las noticias «que inspiren el debate de ida y vuelta en los comentarios», por encima de acciones como «compartir» o calificar con «me gusta». Por eso, las publicaciones de los amigos, que normalmente congregan más este tipo de interacción, serán las grandes beneficiadas con el cambio. Aún no ha entrado este cambio en vigor, pero muchos editores de noticias esperan que baje el tráfico de sus páginas. Las razones del cambio La versión oficial de Facebook que explica esta modificación está estudios que afirman que las redes sociales solo son buenas si se usan para «conectarse con las personas que nos importan». Por ello, el cambio en el algoritmo vendría a reforzar el «sentiemiento de comunidad» de la red social, y estaría en la línea de otras medidas como la de «castigar» las publicaciones que buscan reacciones o que el usuario comparta para conseguir alguna recompensa. Pero también planea la mala reputación que las «fake news» -noticias falsas- supusieron para Facebook con las elecciones estadounidenses en 2016, cuando «ejércitos de cibersoldados» propagaron informaciones falsas para influir en los votantes. Experiencias previas No se trata de una experiencia totalmente nueva. Ya en diciembre de 2013, Facebook cambió su algoritmo para promocionar «artículos de alta calidad» sobre «una foto de meme alojada en otro lugar que no sea Facebook», recuerdan desde The Guardian. Este cambio también afectaba a publicaciones que buscaban el «clic» con diferentes cebos. Como consecuencia, el portal Upworthy vio su tráfico reducido a la mitad en el mes posterior al cambio del algoritmo, «un declive del que nunca se ha recuperado del todo», aseguran desde este medio. Posteriormente, y de cara a «probar» este nuevo sistema, se instauró en pequeños países, como Guatemala, la función «explorar», desapareciendo las noticias de «Feed» por completo. Los periodistas informaron que la cifra de lectores se redujo a la mitad después del cambio, lo que a nivel global podría significar un gran impacto para el tráfico de grandes cabeceras que se nutren de Facebook en sus visitas. La misma reacción se temen organizaciones como las ONG, que vean su influencia disminuida por el cambio de este algoritmo, por lo que muchos ya han alertado de las malas consecuencias que puede tener este cambio. El futuro de Facebook Mack Zuckerberg ha afirmado que su intención con este cambio es que «el tiempo que las personas pasan en Facebook sea más valioso», aunque admite que las visitas caerán, así como «algunas medidas de compromiso», que pueden estar relacionadas tanto con la frecuencia de uso de sus usuarios como con los ingresos en publicidad de la red social. Pero asegura: «Si hacemos lo correcto, creo que será bueno para nuestra comunidad y nuestro negocio a largo plazo».
01-01-1970 | abc.es
Así pretende WhatsApp acabar con los bulos y las cadenas de mensajes falsos
La lucha contra las llamadas «fake news» o «noticias falsas» que se libran en las principales redes sociales tiene un episodio adicional: la cadena de mensajes que suelen enviarse a través de aplicaciones de mensajería instantánea como WhatsApp y que, por lo general, suelen contener falsedades. Consiste en una retahíla de mensajes que pretenden alarmar a la población. No es algo novedoso. Los bulos y mentiras se han difundido siempre por los canales informativos de la época. Pero ahora, por la rapidez e inmediatez de internet quedan visibilizadas. No se salva nadie, tampoco WhatsApp, empresa filial de Facebook, que cuenta con su propio formato para promocionar las noticias malintencionadas, la cadena de mensajes. Seguro que a más de uno le habrá llegado en alguna ocasión ese mensaje que decía que el servicio iba a ser de pago si no lo enviabas a diez contactos. Pues eso. Se suele presentar como un mensaje informativo que trata de «ayudar». Aparecen con mayor fuerza cuando se produce un acontecimiento de gran relevancia como un atentado o un anuncio político de importancia. La facilidad a la hora de compartirlo provoca que estas cadenas inunden los chats de WhatsApp, sobre todo los grupales, cuyo origen es difícil de descubrir. Pero para reducir su impacto, WhatsApp prepara un nuevo método; incorporar una etiqueta o alerta que informe a los usuarios que el mensaje que va a enviar puede contener errores. Según ha desvelado «WABetaInfo», medio especializado que avanza los nuevos servicios de esta popular aplicación, la idea es añadir un sistema capaz de avisar con indicadores o «flags» -«banderas», en español, nombre con el que se identifica a este tipo de alertas- si se trata de un mensaje que se ha reenviado muchas veces y que, por tanto, es susceptible de contener errores. Imagen de una conversación de WhatsApp - WABetaInfo Este método, sin embargo, no evitará, en caso que finalmente se ponga en marcha, que impida compartirse estas cadenas, pero al menos informará al usaurio que es posible que reenvíe un contenido calificado de inapropiado. La «app», para ello, requerirá de tener un cierto acceso al contenido difundido para certificar que se trata de una cadena de mensajes. El mensaje de advertencia se mostrará en la parte superior del chat de WhatsApp, debajo del nombre del usuario remitente. Según las primeras capturas, el usuario receptor verá esa alerta cuando intente reenviar dicho mensaje. El objetivo, por tanto, es mentalizar al usuario antes de que cometa el error de difundir por inercia una cadena de mensajes inapropiada. Por el momento, se desconoce la fecha de disponibilidad.
918