Noticias de "facebook"

21-06-2017 | enter.co
Te enseñamos a utilizar los filtros de caras del Galaxy S8
Hace un par de años Snapchat presentó los Snapchat Lenses o caras animadas que cambiaron por completo el concepto de las selfies. Más adelante, Facebook compró a MSQRD, una aplicación que trabajaba bajo la misma premisa de modificar las fotos de caras. Estas caras luego llegaron a Instagram a través de sus Instagram Stories. Ahora […]
20-06-2017 | abc.es
Google quiere encontrarte trabajo
Google estrenó este martes una herramienta de su motor de búsqueda para ayudar a los usuarios a rastrear y encontrar ofertas de trabajo que se ajusten a sus necesidades laborales. Según anunció la compañía tecnológica en su blog, desde hoy los usuarios que introduzcan en Google «trabajos cerca de mí» o fórmulas similares que estén relacionadas con la búsqueda de empleo recibirán resultados que les permitan ver ofertas de trabajo en internet. «Sin importar quién eres o qué tipo de empleo estás buscando puedes encontrar el anuncio de trabajo que encaje con tus necesidades», explicó la compañía en un comunicado, que detalló una función que Google ya había adelantado en su evento de desarrolladores I/O de mayo. Google afirmó que colaborará con servicios web que se usan en la búsqueda de empleo, como LinkedIn, Monster, WayUp, DirectEmployers, CareerBuilder, Glassdoor o Facebook, para que su herramienta incluya en sus resultados los anuncios de estos sitios tan pronto como estén publicados en internet. Para muchos de esos empleos, Google aseguró que los usuarios podrán ver en los resultados las calificaciones y opiniones sobre el empleador, conocer cuánto tiempo les llevaría ir de casa al trabajo y recibir alertas personalizadas cuando aparezcan ofertas que coincidan con sus criterios. Además el gigante tecnológico señaló que pondrá a disposición de todo el mundo consejos y guías para que sus anuncios de empleos aparezcan en los resultados del buscador. «Seas un joven adulto buscando su primer empleo, un veterano que espera hacer uso de su experiencia como líder en la vida civil, o un padre buscando un trabajo con mejor sueldo para respaldar una familia en desarrollo, esperamos que esta nueva experiencia en Google haga más simple y efectiva la búsqueda de empleo», finalizó la compañía.
20-06-2017 | abc.es
Eli Pariser: «Internet decide lo que lees y lo que piensas»
Gigantes de internet como Google o Facebook han creado algoritmos que seleccionan información en base al historial de navegación de sus usuarios, una realidad que el ciberactivista Eli Pariser denomina el «filtro burbuja» y que, a su juicio, aisla al ciudadano de opiniones distintas a la suya. Si internet nació con la promesa de ser la herramienta para una sociedad más democrática y transparente, la realidad se ha tornado muy distinta, asegura en un encuentro con medios Pariser, autor «El filtro burbuja» (2011), que acaba de publicar en España la editorial Taurus. En 2009, Google anunció que comenzaba a personalizar las búsqueda de sus usuarios en base a su historial, la consecuencia es que dos personas pueden hacer la búsqueda de una misma palabra y obtener resultados «radicalmente distintos». Por ejemplo, buscar «cambio climático» arroja distintos resultados en el caso de que el usuario sea científico o en el de que trabaje en una petrolera, explica. La mayor parte de los buscadores y webs de noticias cuentan hoy en día con este tipo de algoritmos, y su objetivo no es precisamente que «el usuario cambie de opinión y amplíe sus horizontes». «Estas empresas deciden qué opciones tenemos de menú», advierte Pariser, que además de gurú de internet es presidente del consejo de la web MoveOn y fundador de Avaaz -dos iniciativas de ciberactivismo político-. Google, Facebook y otras webs también convierten la información que recopilan con las búsquedas de sus usuarios en dinero con, por ejemplo, la venta de publicidad, señala Pariser. «Cuando algo es gratis, el producto eres tú», añade. Sin ser totalmente conscientes, confiamos a los buscadores y a redes sociales información que no le daríamos «ni a nuestros amigos más cercanos», por eso, cree que es necesaria una iniciativa legislativa que otorgue a los ciudadanos la propiedad de esos datos y la capacidad de borrarlos en el momento que lo deseen. El «filtro burbuja» que describe Pariser ha cobrado especial relevancia con la victoria de Donald Trump y el brexit. La ciudadanía experimentando «un gran cambio» en su relación con los medios de comunicación y gran parte de la información que obtiene no es a través de ellos, sino de las redes sociales. «En la carrera de velocidad de internet (en los buscadores y redes) gana la información más incendiaria, y ésta no tiene por qué ser la basada en la verdad», argumenta. Facebook defiende que la información que destaca en la cronología de cada usuario no tiene una línea editorial y que no son un medio, pero en cambio «sí son capaces de concentrar información, atención y publicidad, que es básicamente lo que hace un medio», apunta Pariser.
18-06-2017 | abc.es
Google aumentará el número de revisores y aplicará normas más estrictas para combatir el extremismo
Promesas vacías o concienciación social. Las empresas tecnológicas se han posicionado a favor de la lucha contra la difusión masiva de contenidos inapropiados. Tras la multinacional Facebook, que ha estado presionada en los últimos meses por su cuestionado tratamiento informativo, el gigante de internet Alphabet -matriz de Google- se ha comprometido a combatir el extremismo a través de una combinación de equipos de revisores humanos y sistemas informáticos automatizados, así como nuevos indicadores y etiquetas para agilizar su posterior revisión. La compañía norteamericana ha anunciado la introducción de nuevas medidas en YouTube, aún en fase de estudio, para hacer frente a la propagación de material extremista online. Tras reconocer que se trata de una «amenaza» que «supone un serio desafío», la firma tecnológica asume que hay que responder de una manera «más inmediata». Para ello, ha propuesto cuatro medidas para hacer frente a esta lacra y reducir en la medida de lo posible la difusión de contenido relacionado con grupos extremistas. Google se ha comprometido a mejor detección de contenido extremista, una revisión más rápida, ampliar el número de expertos independientes encargados de la vigilancia y aplicar unas normas más estrictas. La firma tecnológica ha considerado, no obstante, que se trata de «un problema» al que debe hacer frente. Y parte de la solución se encuentra en mejorar la tecnología en aras de «prevenir la publicación de contenido extremista» mediante el análisis de patrones habituales en la configuración del contenido. Kent Walker, vicepresidente sénior y principal consultor legal del gigante tecnológico estadounidense, ha confirmado en un artículo en «Financial Times» que está previsto aumentar el número de expertos independientes que velarán por el contenido alojado en el servicio de videos YouTube. Este plan contempla también ampliar la relación con gobiernos, autoridades y grupos sociales para abordar la problemática del extremismo online. «No debería haber un sitio para terroristas en nuestros servicios», apunta Walker, al tiempo que reconoce que «aún queda mucho por hacer». La compañía norteamericana ha asegurado que ya ha puesto en práctica un sistema de análisis de video para detectar el contenido dudoso. Según sus estadísticas internas, en los últimos seis meses se han eliminado la mitad de los videos relacionados con terrorismo. «Ahora vamos a dedicar más recursos de ingeniería para aplicarlos a un proceso de investigación basado en 'machine learning' (aprendizaje automático) que servirá para ayudarnos a identificar más rápidamente este tipo de contenido», asegura. Otra medida con la que trabaja la empresa es endurecer su política de uso de algunos de sus servicios como YouTube. En el futuro -relata Walker- los videos en los que se haga exaltación religiosa o de supremacía racial incorporarán una advertencia y no podrá ser monetizado, con lo que serán más difíciles de localizar. Eso sí, no se eliminarán, pero la idea es ocultarlos. «Creemos que esto logra el equilibrio adecuado entre la libertad de expresión y el acceso a la información sin promover un punto de vista extremadamente ofensivo», sostiene.
16-06-2017 | abc.es
Robots para que Facebook deje de ser un patio de recreo para ciberterroristas
Las redes sociales se han convertido en un corral en donde picotean las personas con sus amigos y familiares, y de paso se informan y consumen contenido por doquier. Pero, al margen de estas inocentes actividades, también es el patio de recreo de ciberterroristas que comparten y difunden contenidos extremistas. Un escenario que Facebook, la mayor red social del planeta, pretende combatir con la aplicación de sistemas informáticos basados en inteligencia artificial y la ayuda de organismos gubernamentales. A raíz de los últimos ataques terroristas y en medio de la lacra de las llamadas «noticias falsas», la multinacional americana vive con un quebradero de cabeza de difícil solución. El empleo de las redes sociales por parte de grupos extremistas es cada vez más habitual, puesto que difundir un mensaje en video por ejemplo para captar miembros para la causa yihadista es demasiado sencillo. Pero la firma fundada por el joven multimillonario Mark Zuckerberg tiene un plan: ha empezado a combatir el terrorismo mediante un algoritmo informático basado en inteligencia artificial capaz de analizar imágenes y textos extremistas en tiempo real. Para ello, ha empezado a utilizar una serie de herramientas recientemente. Y lo consigue, además, antes incluso de que se publiquen, en una maniobra que se apoya en un equipo de 150 expertos en revisión de textos, según señala en un comunicado Monika Bickert, directora de políticas globales, y Brian Fishman, responsable de política antiterrorista de la compañía. La idea con la que trabaja es la combinación de un «ojo» informático y la intervención de la mano humana es la fórmula para bloquear este tipo de comentarios. Facebook se enfoca, especialmente, en detectar imágenes y videos producidos por el Estado Islámico y Al Qaeda, aunque no se ha pronunciado sobre otras organizaciones terroristas. El software de la red social que se apoya en sistemas cognitivos trabaja mediante el análisis y la comparación de contenidos de ciberprogaganda difundidos con anterioridad por grupos extremistas. En base a su repercusión, Facebook logra -reconocen- detectar una nueva actualización, paralizando su difusión en pocos minutos y evitando así que se hagan virales. No obstante, de la misma forma que tiene lugar con las imágenes, la plataforma cuenta con otros sistemas que analizan los textos de las publicaciones. Esa inteligencia artificial, que se basa en métodos de «machine learning» o aprendizaje automático a partir de otras publicaciones de terroristas, sería capaz de detectar los «posts» relacionados con el terrorismo antes incluso de su publicación. Es decir, justo en el momento en el que se cargan en los servidores. «Queremos localizar contenido terrorista inmediatamente, antes de que los usuarios de nuestra comunidad lo haya visto», prometen. Pese a reconocer el problema, desde la compañía asumen apuntan que se trate de una «solución técnica fácil» sino más bien un conjunto de ideas en las que han empezado a trabajar, aunque sus resultados se desconocen. El reto de «limpiar» de videos y textos inapropiados por parte de Facebook requerirá también de otras herramientas adicionales, según anuncian las mismas fuentes. Para lograrlo, la empresa insta a estrechar una colaboración entre distintos organismos gubernamentales, administraciones, la cooperación del sector o empresas de servicios de encriptación de comunicaciones. Algunas de estas medidas se empezarán a aplicar también en otros servicios de la compañía como la red de fotografía Instagram o la aplicación de mensajería WhatsApp. En la red social, incluso, utiliza técnicas para evitar que los terroristas se creen varias cuentas una vez han sido bloqueados. A pesar del uso de algoritmos, Facebook ha asegurado que dispone también de personal especializado encargado de supervisar los contenidos sensibles en la red social. Además del sistema de denuncias, que son revisadas por una comunidad de 3.000 trabajadores, Facebook ha creado un equipo de 150 especialistas en contraterrorismo.
16-06-2017 | enter.co
Así está cambiando Messenger el servicio al cliente con sus chatbots
La probabilidad de que alguien tenga acceso a Facebook Messenger es muy alta y, por lo tanto, es un gran canal para que las empresas empiecen a comunicarse con los usuarios. Sin embargo, ya no solo es el típico community manager que se encarga de responder a las preguntas de los usuarios. A partir de ahora […]
15-06-2017 | abc.es
Las máquinas con inteligencia artificial de Facebook aprenden a regatear
En los negocios, los seres humanos actúan de determinada manera con el objetivo de sacar el mayor beneficio posible, al igual que una persona que acude a un mercadillo e intentar regatear para conseguir determinada mercancía a menor precio. Con esa premisa, Facebook ha desarrollado un planteamiento en su inteligencia artificial (IA) para que interactúe con el objetivo de regatear. La técnica del regateo se consigue con buena carisma, estrategia y argumentos. Basándose en esas posibilidades, la compañía de Mark Zuckerberg ha diseñado una interfaz en el que el sistema ejecuta una respuesta según las posibilidades que ha examinado y lo que podría conseguir con cada desenlace. El escenario de las máquinas IA de Facebook para su entrenamiento ha sido el siguiente: cinco libros, tres sombreros y dos pelotas. Con esta especie de juego tenían que llegar a un trato en menos de diez turnos. Los caminos que pueden recorrer para llegar a una solución funcionan con una estructura de árbol. Sin embargo, esta toma de decisiones todavía funciona a pequeña escala y está en fase de pruebas, por lo que aún las máquinas con sistema de inteligencia artificial no están preparadas para interactuar con personas. Un paso adelante para que los robots se aproximen al ámbito de los seres humanos.
15-06-2017 | abc.es
La inteligencia artificial de Facebook aprende a regatear
En los negocios, los seres humanos actúan de determinada manera con el objetivo de sacar el mayor beneficio posible, al igual que una persona que acude a un mercadillo e intentar regatear para conseguir determinada mercancía a menor precio. Con esa premisa, Facebook ha desarrollado un planteamiento en su inteligencia artificial (IA) para que interactúe con el objetivo de negociar como si se tratase de un ser humano ante un tendero. El empleo de técnicas basadas en «machine learning» -aprendizaje automático- y más recientemente bajo protocolos de «deep learning» -aprendizaje profundo- han empezado a dar sus frutos. Para lograr que las máquinas sean capaces de interactuar se requiere de un «entrenamiento» previo muy prolongado en donde los ingenieros cargan sus bases de datos con ejercicios de simulación para que los sistemas informáticos sean capaces de actuar de una forma como lo haría una persona. Es decir, con ejemplos en diversas situaciones. Y, ahora, un nuevo avance puede lograr que las máquinas que utiliza Facebook para realizar pruebas sean capaces, incluso, de establecer una relación comercial en la que intervenga una negociación. La técnica del regateo se consigue con carisma, estrategia y grandes argumentos. Basándose en esas posibilidades, la compañía de Mark Zuckerberg ha diseñado una interfaz en el que el sistema ejecuta una respuesta según las posibilidades que ha examinado y lo que podría conseguir con cada desenlace. Según ha publicado el equipo de ingenieros de la compañía (PDF, en inglés), el escenario de las máquinas IA de Facebook para su entrenamiento ha sido el siguiente: cinco libros, tres sombreros y dos pelotas. Con esta especie de juego tenían que llegar a un trato en menos de diez turnos. Los caminos que pueden recorrer para llegar a una solución funcionan con una estructura de árbol. Sin embargo, esta toma de decisiones todavía funciona a pequeña escala y está en fase de pruebas, por lo que aún las máquinas con sistema de inteligencia artificial no están preparadas para interactuar con personas. Un paso adelante para que los robots se aproximen al ámbito de los seres humanos en un futuro.
15-06-2017 | enter.co
Ahora todos pueden usar GIF en los comentarios de Facebook
A través de su sitio web de noticias, Facebook anunció que de ahora en adelante todos los usuarios de la red social podrán insertar GIF en comentarios, tanto en la versión web como en las diferentes aplicaciones móviles.Continúa leyendo en ENTER.CODeja un comentario en Ahora todos pueden usar GIF en los comentarios de Facebook, 2017 […]
15-06-2017 | abc.es
Facebook permite a los usuarios poner animaciones GIF en los comentarios
Facebook ha implantado los GIF en las respuestas de las publicaciones, después de que se introdujeran con éxito en Messenger en 2015, con el fin de conmemorar el 30 aniversario de este formato de imagen. La red social ha estado probando esta nueva funcionalidad desde hace tiempo, y según ha explicado en su blog oficial. Los GIF en los comentarios ya están disponibles para todos los usuarios a nivel global, y se pueden encontrar pulsando el botón correspondiente a la hora de escribir un comentario, tanto en la versión de escritorio como en la de dispositivos móviles. La compañía americana creada por Mark Zuckerberg ya permitía chatear con GIF en su aplicación de mensajería Messenger. El éxito de esta herramienta -25.000 GIF enviados por minutos, según Facebook- hizo que muchos usuarios pidiesen su implantación en los comentarios de la red social, algo que se ha cumplido con un extenso catálogo. No es coincidencia que la implantación de los GIF en Facebook coincida con el 30 aniversario de este formato. La red social no solo conmemora esta fecha con su nueva herramienta, sino que también ha creado varios GIF en colaboración con rostros populares de Internet como Logan Paul, Violet Benson o Amanda Cerny para celebrarlo. Estos GIFs conmemorativos pueden encontrarse en Facebook usando el hashtag #GIFparty o bien desde su página en GIPHY.
183