Noticias de "facebook"

01-01-1970 | abc.es
Facebook admite que su red social distribuyó propaganda política pero luchará contra ella
Mera red social o medio de comunicación. El eterno debate vuelve a ponerse de relieve. Pese a reconocer con la boca pequeña ciertas responsabilidades en el tratamiento de la información, Facebook ha anunciado este jueves que luchará contra la utilización de su red social por parte de los gobiernos y otros grupos organizados para difundir información falsa o manipular por razones políticas. En un documento de 13 páginas (en inglés, en PDF) interno elaborado por su equipo de seguridad, la multinacional americana admite haber difundido propaganda política, asumiendo por primera vez públicamente que su red social se ha utilizado en muchas ocasiones para fines partidistas por parte de gobiernos de todo el mundo en sus intentos por manipular a la opinión pública. Facebook, que recibió duras críticas por haber permitido supuestamente la difusión de informaciones falsas que ayudaron a Donald Trump a ganar las pasadas elecciones norteamericanas, ha salido al paso con una serie de nuevas medidas para combatir este problema. Esta batería de propuestas tiene como objetivo contrarrestar el esfuerzo de gobiernos y demás organizaciones para manipular la opinión pública mediante la difusión de mentiras a través de, en muchos casos, perfiles falsos. «Hemos tenido que expandir nuestra seguridad para cubrir más que los comportamientos abusivos tradicionales, como el hackeo de cuentas, difusión de malware, spam y estafas financieras, para incluir formas más sutiles e insidiosas de mal uso, entre las que se incluyen los intentos de manipular el discurso público y engañar a la gente. Estos son problemas complicados y nuestras soluciones evolucionarán constantemente, pero queremos ser transparentes sobre nuestro objetivo», señalan de manera conjunta Jen Weedon, William Nuland y Alex Stamos en el informe. Para ello, la compañía se centrará en tres áreas de acción. Una de ellas dirigida a la recopilación de datos por parte de los gobiernos que quieren localizar disidentes políticos; otra la difusión de información mediante la creación de perfiles falsos; y, por otro lado, la utilización de herramientas como sistemas automatizados («bots») para promover o denigrar una causa o colectivo. Pese a todo, Facebook asegura que es «incapaz de identificar a los interesados en apoyar este tipo de actividades».
01-01-1970 | abc.es
Facebook Live: cuando la muerte se retransmite en directo
Era un aparente domingo cualquiera. Las 11.09 horas para se exactos. La fecha, un 16 de abril. Steve Stephens, de 37 años, aparece, por sorpresa, en un video colgado en su perfil de Facebook. Emite en directo. Asegura haber matado a trece personas. Conducía, como si tal cosa, pero tenía un propósito en mente: matar a alguien. Y lo consiguió, para vergüenza de la raza humana. Pocos minutos después acaba con la vida de Robert Godwin, de 74 años. La víctima andaba tranquilamente por allí y pagó la frustración de una persona de haber discutido horas antes con su novia. Le quitó la vida y se convirtió, en ese instante, en un criminal buscado por la policía. Tras varias denuncias de usuarios, la multinacional americana cortó la emisión dos horas después. Facebook asegura, sin embargo, que bloqueó la cuenta a los 23 minutos después de haber sido alertado del contenido del video. Pero el daño ya estaba hecho. Miles de personas lo habían visto con sus ojos. Tras una persecución y acosado por los cuerpos de policía de Cleveland (Ohio, EE.UU.), Stephens decidió, entonces, quitarse la vida y poner fin a esta tragedia retransmitida en directo. Fueron tres videos de casi cuatro minutos de duración en su conjunto en donde, como si se tratase de una película de Quentin Tarantino, relataba paso a paso los acontecimientos (primero, la planificación; segundo, el acto; tercero, la confesión). Un relato macabro. Un episodio difícil de creer y que ha generado un debate social sobre las repercusiones y la actitud de las empresas de internet para frenar este tipo de casos en los que se muestran en vivo imágenes de crímenes o de suicidios. El ser humano del siglo XXI vive totalmente inmunizado al dolor. Y a la angustia. Ve con sus propios ojos el miedo y la sangre cada día en la televisión. Uno ya no se sorprende de nada. Hasta los niños, incluso, tienen a su alcance imágenes trágicas que se pegan a sus retinas como el sudor a la piel. El morbo está a la orden del día. Todos somos conscientes. Si un informador presenta una imagen pero, precavido, dice «estas imágenes pueden herir la sensibilidad» lo más normal es que active una palanca en el cerebro y observemos de reojillo lo que va a suceder. Por eso puede haber personas que incluso ante la presencia de un cadáver lleguen a grabar videos y a hacer comentarios que, tal vez, en otras épocas llegarían a espantar a cualquiera. Es frívolo, pero las redes sociales han magnificado todas esas situaciones. Se han producido incluso casos de suicidio en directo, cuyos videos han permanecido disponible varias horas. Algo terrible. Si bien es cierto que la muerte siempre está presente, las nuevas tecnologías han sufrido en sus carnes cómo servicios en teoría útiles y prácticos como las retransmisiones en directo (Periscope, Twitter, Facebook Live, Twitch?) se han convertido en un arma de doble filo. El «troll», aquellos usuarios que bajo el anonimato han encontrado un paraíso para el insulto, o el criminal de turno lo que quieren en realidad es atención. Propaganda. Y cuanta más, mejor. Por ello hay quienes no dudan ni un segundo que encontrarán cobijo en sus actos incívicos, vandálicos o de dudosa actividad. Son casos aislados, es cierto, pero demuestran que las nuevas tecnologías, en muchos casos, se han utilizado para otros fines que no fueron originalmente planificados. Así ha sido a lo largo de la Historia. Son muchas las cuestiones alrededor. ¿Qué responsabilidades tiene una plataforma «online» ante un crimen de uno de sus usuarios? ¿Hasta qué punto se les puede acusar? ¿Qué pueden hacer? Es más, ¿puede la tecnología anticiparse (y evitar incluso) ante una tragedia? Las políticas de uso registradas en Facebook o Twitter, empresas que disponen de servicios de retransmisión de video en «streaming», recogen que está literalmente prohibido hacer apología de la violencia o incitar a ella. Para evitarlo, un sistema informático basado en inteligencia artificial se encarga de velar por el cumplimiento de estas normativas. Pero en la mayoría de los casos es la comunidad la encargada de autorregular (o censurar) estos contenidos gracias al uso de una serie de herramientas a su alcance para denunciar y reportar el contenido inapropiado, tal y como sucedió en otro caso similar cuando dos personas de 14 y 15 años violaron a una menor mientras treinta personas lo presenciaban, impasibles, en directo a través de Facebook Live. «Tal vez nos falta cultura en el uso de las redes sociales o entender cómo funcionan, porque hay cosas de esas redes sociales que al final se acaban utilizando para cosas diferentes a la idea original»Esteban Mucientes, experto en redes sociales Otro terrible caso se produjo en febrero en Chicago cuando un menor de dos años, Lavontay White, y el novio de su tía, morían acribillados a balazos a manos de un hombre de 26 años. Aquella escena se retransmitió a través de Facebook Live. Al hilo de estos acontecimientos que han enmudecido a la comunidad, el propio Mark Zuckerberg, fundador y responsable de Facebook, reconoció que hay un «gran trabajo por delante por hacer». Durante su intervención en la pasada conferencia de desarrolladores F8 dijo: «Seguimos haciendo todo lo posible para evitar este tipo de tragedias». Como resultado de estos terribles sucesos, la multinacional americana ha asegurado que se encuentra «revisando» sus sistemas y consultando informes internos para asegurar que los usuarios pueden reportar videos inapropiados y otros contenidos que violan sus estándares de calidad «tan fácil y rápidamente como sea posible». «En este caso no recibimos una denuncia sobre el primer video, y sólo recibimos una sobre el segundo video, más de una hora y 45 minutos después de su publicación. Recibimos informes sobre el tercer video, que contenía la confesión en directo del hombre únicamente después de que hubiera terminado», reconoce Justin Osofsky, vicepresidente de operaciones de Facebook, en un comunicado, en el que lamenta los hechos: «Sabemos que tenemos que hacerlo mejor». La importancia de los tiempos de reacción «La culpa es del usuario. Facebook no mata a alguien, Facebook no se suicida», asegura a este diario Esteban Mucientes, experto en redes sociales y asesor de la agencia Cuchillo. «Ponemos en el foco en la parte no personal, porque hay una empresa detrás, pero tal vez nos falta cultura en el uso de las redes sociales o entender cómo funcionan, porque hay cosas de esas redes sociales que al final se acaban utilizando para cosas diferentes a la idea original», apunta. Este experto se muestra seguro que la multinacional americana hace «todo lo posible» para frenar este tipo de retransmisiones, pero considera que los usuarios, al final, también tienen responsabilidades a la hora de denunciar los hechos. «A lo mejor Facebook podría mejorar los tiempos de reacción, pero ni siquiera Google sabe trabajarlo correctamente porque se requiere de un gran equipo humano. Por mucha inteligencia artificial que se implante un ser humano es quien puede juzgar si representa un problema. Estamos poniendo un foco de seguridad ciudadana cuando estas plataformas son un transmisor», sostiene. En la misma línea apunta Sergio Carrasco, abogado especializado en derecho tecnológico en Fase Consulting, quien asegura por correo electrónico a ABC que en el caso del crimen de Cleveland Facebook no es responsable de ello, más allá de ser el titular de la plataforma. «Al igual que sucede con YouTube y los terribles vídeos que en ocasiones se publicitan a través de su servicio, a lo que están obligados es a actuar de manera diligente una vez son notificados de la existencia de determinados contenidos», manifiesta. «A lo que están obligados es a actuar de manera diligente una vez son notificados de la existencia de determinados contenidos»Sergio Carrasco, abogado A su juicio, es imposible supervisar de manera automática y perfecta todo contenido. Y pone un ejemplo: basta ver los falsos positivos que algunas herramientas provocaron en relación a fotos de desnudos. «El problema es que, al tratarse de herramientas de emisiones en vivo, resulta casi imposible actuar durante la retransmisión sobre todo si se trata de casos en los que el acto se produce rápidamente y antes de que algún moderador pueda llegar a actuar», añade. «Más que contribuir, están haciendo que resulten más visibles al permitir tanto la posibilidad de acceso sencillo a una emisión en vivo con un público potencial enorme. Quien quiere emitir en vivo puede hacerlo, con dispositivos de bajo coste, y con una sencillez que hasta hace poco era impensable». Por esta razón, este experto señala que la mejor opción está en «facilitar las denuncias rápidas para determinados sucesos», de forma que «la moderación cuente con un equipo que actúe de manera preferente en emisiones». Por su parte, Samuel Parra , abogado experto en privacidad y derecho en red, manifiesta en conversación telefónica que desde el punto de vista legal, al menos en el entorno español, las redes sociales no tienen una obligación de controlar en tiempo real los videos o imágenes que se están subiendo. «Sería inviable por el alto volumen que sacan. La red social sí puede ser responsable de alojar un contenido de tercero en caso de vulnerar un derecho de un tercero, por ejemplo, si cuelgo una imagen de contenido injurioso o que puede vulnerar la intimidad de otra persona», matiza. «No podemos pretender que las plataformas que manejan miles de millones de datos por minuto tengan cientos o miles de personas las 24 horas para revisar lo que publique la gente» Samuel Parra, abogado Porque, en líneas generales, esta serie de actividades difundidas en redes sociales se magnifican, pero se deja en manos de la comunidad y los moderadores encargados de visualizar el contenido reportado. «Hay sistemas y algoritmos que sí pueden detectar una banda sonora protegida por derechos de autor, retirando el contenido automáticamente. Pero si Facebook recibe una petición tan evidente como una fotografía denunciada y no hace nada va a ser responsable como si la hubiera publicado él [por la red social]», asegura. La solución que propone este experto es que las compañías de internet sean «diligentes» porque no tiene sentido que se denuncie un contenido y que éste desaparezca a los dos meses. «No podemos pretender que las plataformas que manejan miles de millones de datos por minuto tengan cientos o miles de personas las 24 horas para revisar lo que publique la gente para despublicarlo al minuto. Mientras habiliten herramientas para que se agilice la revisión y actúen en consecuencia con eso es suficiente. Más allá no podemos exigirle».
01-01-1970 | abc.es
Los buscadores que no «invaden» la privacidad
Los usuarios que buscan información en internet suelen acudir a buscadores como Google, el más utilizado a nivel mundial por el 95% de las personas, al cual le siguen Bing y Yahoo! en número de usuarios conectados. Sin embargo, no es ningún secreto que los grandes de la navegación comparten algunos datos con terceros para usarlos en la disposición de las campañas de promoción. Por lo que la Oficina de Seguridad del Internauta propone ciertas alternativas para evitar perder el control sobre la privacidad. Google ofrece un gran número de productos gratuitos como Gmail, Calendar, YouTube, Analytics, Maps porque le interesa tener a los usuarios conectados para poder conocerlos mejor. La información tiene un valor a la hora de conocer los gustos del público objetivo de las empresas que quieren que las campañas de ofertas de productos alcancen de una manera más directa a los consumidores. La gran compañía tecnológica no es la única que ofrece este tipo de servicios gratuitos para aumentar el número de usuarios, Microsoft también intentar acercar a más personas conectadas gracias a su navegador Bing con productos como el paquete Office, MSN o Office. Así como Yahoo! lo hace a través de la plataforma de fotografía Flickr. Para acceder a cualquiera de estos servicios es necesario el registro mediante la inclusión de datos personales. Sin embargo, a la hora de realizar la navegación, las «cookies» (ficheros que observan las páginas que visitan los usuarios y cómo interactúan con ellas) aprenden a conocer los gustos de la persona en cuestión. Por ello, no es de extrañar que Google te informe de la situación del tráfico antes de salir de casa. Las personas que rechacen la idea de que se esté haciendo negocio con los datos de los usuarios tienes opciones como: DuckDuckGo, WolframAlpha, Starpage, Privatelee, Yippy Search o buscadores que emplean Google pero utilizan un sistema para que no se envíe ninguna información. WolframAlpha Captura de pantalla del buscador WolframAlpha- ABC El motor de búsqueda de WolframAlpha está pensado para que el usuario realice sus consultas por temática: ciencia, matemáticas o música. Aunque el concepto parezca más el de una enciclopedia, no rastrea las búsqueda, respetando así la privacidad. DuckDuckGo Captura de pantalla del buscador DuckDuckGo- ABC El buscador DuckDuckGo no recopila ni comparte la información de los internautas. Se puede utilizar Google sin ser monitorizado desde este motor de búsqueda escribiendo «!g» seguido de la fórmula que el usuario quiere localizar en internet, lo que también se puede emplear en Youtube con «!yt», en Facebook a través del comando «!fb» o en Twitter con la nomenclatura «!tw». Startpage Captura de pantalla del buscador Startpage- ABC Startpage es un buscador anónimo que utiliza Google pero sin hacer un uso recopilatorio o de compartir los datos a terceros. Después de hacer cada búsqueda, borra automáticamente toda la información que pueda identificar al usuario. Su sistema evita la necesitar de hacer uso de las «cookies». Privatelee Captura de pantalla del buscador Privatelee- ABC El motor de búsqueda Privatelee tiene un diseño muy sencillo y no registra las palabras clave para que no sean registradas con el objetivo de hacer un uso impositorio de la publicidad. Yippy Search Captura de pantalla del buscador Yippy- ABC Yippy Search, anteriormente con el nombre de Clusty, tiene la novedad de organizar los resultados de búsquedas por temáticas, además de poder señalar el contenido como inapropiado. Privatelee no registra consultar ni muestra anuncios, aunque guarda las páginas en caché.
01-01-1970 | abc.es
Los españoles son los cuartos a nivel mundial en producción de Instagram Stories
La función Stories de Instagram, que permite la difusión de fotografías y vídeos con caducidad temporal a través de la red social, ha cumplido este miércoles un año desde su lanzamiento. Esta herramienta se ha convertido en una de las más populares de la plataforma propiedad de Facebook, hasta el punto de haber alcanzado los 250 millones de usuarios diarios en todo el mundo, según cifras de la compañía. A través de un comunicado, Instagram ha asegurado que Stories comenzó en verano de 2016, cuando la red social contaba con 700 millones de cuentas registradas en todo el mundo, y ha incrementado su popularidad hasta alcanzar los 250 millones de usuarios diarios únicos solo para esta funcionalidad. La plataforma de difusión de contenido multimedia ha recordado que Stories fue puesto en marcha para dar a su comunidad «un lugar para compartir cada momento, no solo los más destacados». Aprovechando este primer aniversario de Stories, Instagram ha publicado por primera vez varios datos relacionados con su uso, en función de aspectos como las herramientas más empleadas o las ubicaciones desde donde se ha compartido más contenido efímero. Sobre este último dato, la red social ha identificado a Yakarta (Indonesia) como la localización que ha protagonizado más «historias», seguida por Sao Paulo (Brasil), Nueva York (Estados Unidos), Londres (Reino Unido) y Madrid (España). En cuanto a los 'hashtags' más utilizados en Instagram Stories, ha predominado el uso de #GOODMORNING (buenos días), #WORK (trabajo), #GOODNIGHT (buenas noches), #MOOD (estado de ánimo) y #HAPPYBIRTHDAY (feliz cumpleaños). La lista se completa con los hashtags #TBT («throwback Thursday», etiqueta empleada popular en la costumbre de compartir fotos antiguas los jueves), #LOVE (amor), #HOME (casa), #BOMDIA (buenos días en portugués) y #RELAX. Dentro de las herramientas creativas de la app, Instagram ha explicado que los pinceles más empleados para Stories en este primer año han sido «Pen», «Special», «Neon» y «Marker». En cuanto a los «stickers» o pegatinas que se colocan en las imágenes y vídeos, ha destacado la geolocalización, seguida por el reloj digital, el «like», el «hashtag» y la temperatura ambiente. Otra de las funciones de edición más empleadas en Instagram Stories han sido las máscaras, protagonizadas por las orejas de perrito, el antifaz para dormir y las orejas de conejo como las más utilizadas. Les siguen los corazones y las orejas de koala. Instagram ha destacado que desde el inicio del servicio en agosto de 2016, Stories ha incorporado progresivamente nuevas funciones en las 20 actualizaciones que han sido lanzadas en este primer año. Entre ellas, se encuentra Boomerang, un efecto que permite crear un vídeo en base a un pequeño fragmento de otro que se repite varias veces, que fue introducido el pasado 11 de enero y que ha sido empleado en un total de 1.364.663.130 ocasiones. España supera la media global en un 150% En cuanto a las interacciones, la red social ha detallado en su comunicado que los españoles que utilizan Instagram Stories suelen navegar en los perfiles de sus amigos, cuentas interesantes o de negocios antes que en una localización específica o «hashtag». Además, las menciones a otras cuentas de Instagram suponen más de la mitad de las etiquetas de las historias, y tienden a ser más interactivas que las etiquetas de localización o los «hashtags», lo que a juicio de la red social «demuestra que los adolescentes son los mayores consumidores y productores de Stories», con un consumo diario cuatro veces superior al del resto de usuarios activos en España, en lo relativo al visionado, y seis veces mayor en cuanto a producción de estos contenidos. De hecho, la comunidad de Instagram de España se ha convertido «en una de las mayores productoras de Stories del mundo», ya que ocupa la cuarta posición a nivel mundial y supera en un 150% la media general de historias por usuario. Dentro de los hitos destacados por Instagram en este primer año de actividad de Stories, la compañía ha indicado que los 100 millones de usuarios diarios de esta funcionalidad fueron alcanzados en octubre de 2016. La cifra se incrementó a los 150 millones diarios en enero del presente año y a los 200 en abril. De acuerdo con los datos de la red social, los 250 millones de personas que utilizan Stories a diario fueron alcanzados el pasado mes de junio.
01-01-1970 | abc.es
En Facebook hay cuatro tipos de usuario de acuerdo a su manera de interactuar, según un estudio
Un reciente estudio publicado por la «Internationa Journal of Virtual Communities and Social Networking» concluye que en Facebook se pueden encontrar cuatro tipos de usuario acorde a su personalidad: el sociable, el cotilla, el «pregonero» y el «selfies». Para este análisis, utilizaron 48 preguntas que repartieron entre los participantes y que incluían respuestas como «Facebook es una fuente de estrés» o «es una manera de lograr ayuda inmediata». Lo que alude a otro estudio sobre los usuarios de la red social de Mark Zuckerberg que sacó como resultado de la investigación que las personas utilizan Facebook para odiar. Estas conclusiones se deben a los datos arrojados tras un análisis en que las personas que utilizan Facebook sienten rechazo hacia una gran parte de las publicaciones de política que utilizan la red, así como al exceso de información que comparten. Este informe tiene cierta relación con una de las cuatro personalidades mencionadas, la cotilla, por lo que el odio y el sentimiento frecuente de molestia hacia otros usuarios puede ser apagado, pero no lo hacen por mera intención de saber qué hacen dichas personas con su vida. Sociable El usuario sociable es el que construye relaciones y utiliza la plataforma para fortalecerlas. La red social es una extensión de lo que vive en su día a día. Tiende a realizar peticiones de amistades a personas que no ha visto desde hace tiempo, como las amistades del colegio y tiene la iniciativa de conocer gente nueva. Suelen comentar con frecuencia las publicaciones de los amigos de su red, como síntoma de atención hacia ellos, que se percata de su presencia y no les olvida. Cotilla Las personas conectadas en la red soial consideradas como cotilla sienten la obligación de estar en Facebook. Lo contradictorio con esta tipología es que no tienden a compartir información personal o interactúan con las publicaciones de otros usuarios. Simplemente, pasan gran parte de su tiempo viendo las novedades de los demás y sienten que deben están conectados para mantener al día. Pregonero Son usuarios que no les importa el nivel de interacciones que causen sus publicaciones, pero comparten opiones para todo y tienen la necesidad de no quedarse callados. Sin embargo, no tienen como costumbre compartir temas de índole personal, pero sí harán uso de las publciaciones para invitar a los usuarios de su red a eventos o información que creen de manera determinante que es trascendental conocer. Selfie Los «selfies» utilizan Facebook para compartir imágenes en un primer plano sobre sí mismos o con amigos a los que etiquetar. Su personalidad como usuario de la red social se asemeja mucho al del sociable en términos de interacción, ya que publican fotos, vídeos o comentar. Sin embargo, les gusta atraer la atención centrada sobre sus personas porque necesitan de la aprobación de la red. Para ellos, no es suficiente con hacerse la foto, tienen la necesidad de que otros la vean.
01-01-1970 | abc.es
Facebook busca acelerar la carga de enlaces en la app
Facebook ha anunciado que implantará en su app para smartphone cambios para evitar los tiempos de carga lentos de los enlaces a páginas externas. Con estos cambios, la red social priorizará en su News Feed los links a sitios web de carga rápida y relegará aquellos a páginas lentas a puestos secundarios de la lista de publicaciones y «posts», así como implantar medidas con las que espera acelerar los tiempos de carga en más de un 25%. Para determinar qué enlace mostrar en cada parte de su plataforma, Facebook tendrá en cuenta dos factores: «la calidad de la conexión de la red móvil y la velocidad general de cada sitio web», como ha explicado la compañía a través de un comunicado. En caso de que estos indicadores apunten a que el sitio web incluido en un enlace se cargará más rápido, este tipo de publicaciones se mostrarán en posiciones prioritarias del News Feed, relegando más abajo así al resto de links a páginas con tiempos de carga largos. En cuanto al resto de novedades, la red social también trabaja en mejorar los tiempos de carga mediante otros métodos, como el de precargar contenido de las páginas de los enlaces antes de que el usuario haga clic en el mismo, algo que puede acelerar en más de un 25% el proceso. Además, estos cambios se suman a otros que ya había sido implantados anteriormente por Facebook en su versión para móviles. En función del tipo de dispositivo y de la red con la que se conecte a internet el usuario, la red social personaliza el tipo de contenidos. Para conexiones lentas, se muestran menos vídeos en el News Feed y más actualizaciones del perfil y enlaces. La compañía de Zuckerberg, que se encuentra actualmente trabajando para añadir las novedades a su plataforma, ha afirmado que irá implantándolas «progresivamente durante los próximos meses». Facebook decidió implantar los cambios al advertir que «un 40% de los visitantes de sitios webs los abandonan después de tres segundos de carga».
01-01-1970 | abc.es
Comprender la mente humana: el reto de la inteligencia artificial
Era octubre de 2015 cuando Marty McFly viajó al futuro para impedir que su hijo fuese injustamente encarcelado en «Regreso al futuro II». Tampoco falta mucho para noviembre de 2019, fue en esa fecha cuando los replicantes campaban a sus anchas por las calles de Los Ángeles en Blade Runner luchando por conseguir un poco más de vida. La realidad supera en muchos aspectos a las previsiones de las películas de ciencia ficción de los años 80, pero aquella casta de robots capaces de emocionarse y almacenar recuerdos que retrató Ridley Scott en su obra maestra parecen tener que esperar muchos años para empezar a sentir. La robótica está experimentando avances extraordinarios en los últimos tiempos, pero la inteligencia artificial todavía está muy lejos de funcionar como la mente humana. Se debe, tal y como explicó Martín Molina González, catedrático del Departamento de Inteligencia Artificial de la Universidad Politécnica de Madrid durante el taller «Inmortalidad robótica y personas electrónicas» que se ha impartido en la Universidad Menéndez Pelayo (UIMP), a que aún se desconocen muchos aspectos del funcionamiento de la mente humana y, «mientras no se descubran todas las funciones de nuestro cerebro no se podrán introducir en una máquina». El investigador aseguró que las máquinas actuales no podrán superar las capacidades humanas a corto plazo debido a que, a pesar de que se puede copiar la estructura neuronal, nuestro cerebro tiene demasiadas neuronas y nuestra mente responde a muchas funciones. Los robots, según el científico, no tienen tanta capacidad por el momento: «Les asociamos más inteligencia de la que tienen, todavía están muy limitados, sobre todo en sentido común». A día de hoy los robots viajan al espacio y son capaces de tomar «pequeñas decisiones» mientras no reciben la siguiente orden, están preparados para ejecutar importantes tareas en catástrofes medioambientales, una máquina superó en un concurso de televisión a un humano respondiendo a preguntas de cultura general e incluso los «bots» de Facebook consideraron que el inglés era un idioma demasiado complicado y crearon sus propios códigos para comunicarse. Molina confirmó que se han superado muchos ciclos pero prevé que se esté viviendo una fase de excesivo optimismo «como ya ha ocurrido en otras épocas», insiste en que «aplicando la lógica es posible repetir patrones de comportamiento, pero no nos alcanzan en materia de intuición, habilidades motoras, actos reflejos y conciencia». De esta manera, un robot puede reconocer los rostros de una fotografía, el lugar y la acción, pero no puede detectar que en la escena se está produciendo la discusión de una pareja. El campo de trabajo actual consiste en un sistema multinivel al que los expertos llaman «arquitecturas híbridas». La robótica ya domina patones de acción y reacción, pero la capa desconocida es la llamada «deliberativa», donde se encuentran la reflexión, la sociabilidad o la conciencia. «No todo el aprendizaje es automático», explicó el catedrático, «por el momento el robot nunca va a poder desempeñar funciones que requieran liderazgo. Tampoco podrá hacer previsiones ni sabrá priorizar las cuestiones importante en cualquier empresa». Inteligencia emocional, una incógnita sin resolver Las máquinas, explicó el investigador, son muy inteligentes pero no son intuitivas. Uno de los retos de los científicos es la investigación de la inteligencia emocional. «La inteligencia no tiene ningún sentido sin emociones, mientras no comprendamos eso no lo podremos avanzar en esa línea». Hay investigadores, cuenta Molina, que han sido capaces de modelar esos reflejos, otros de superar la toma de decisiones sencillas, las arquitecturas nuevas suponen un gran avance en la materia pero poder todos los aspectos funcionales del cerebro a trabajar a la vez «es muy complicado, de momento imposible». Aunque también recordó que a pesar de los diversos ciclos de optimismo y frustración que experimentó a lo largo de la historia la raza humana, en muchas ocasiones se superaron las expectativas en tiempo record. Ya en la mitología griega se palpaba la fascinación del ser humano por los robots, las historias demuestran que imaginaban gigantes de bronce que defendían a su país en las batallas. En el siglo XVII en Turquía una figura de aspecto humanoide simulaba competir al ajedrez con sus dueños. Sin embargo, en 1997 el Deep Blue consiguió ganar a Kasparov y, poco después, en 2015, una máquina consiguió ganar al campeón de Go, un juego similar al ajedrez que requiere de una estrategia mucho mayor. En ese momento nadie esperaba que un autómata superase a una persona en estrategia, por lo tanto es una incógnita la posibilidad de dotar al robot de inteligencia emocional en un futuro próximo. Lo que está claro es que, como ya predijo el científico Rodner Brooks, «los próximos años van a ser muy divertidos».
01-01-1970 | abc.es
Facebook deja en manos de la inteligencia artificial la traducción de sus publicaciones
La red social Facebook ha anunciado que sus sistemas de traducción han comenzado a utilizar herramientas de inteligencia artificial como únicos mecanismos para traducir las publicaciones de sus usuarios a otros idiomas, sustituyendo al anterior modelo y comenzando a incluir información del contexto. El cambio, que ha sido anunciado por Facebook a través de una publicación en uno de sus blogs, permitirá a los usuarios llevar a cabo traducciones entre idiomas de una manera más fluida gracias a la utilización de redes de inteligencia artificial como única herramienta, que dejarán como resultado unas interpretaciones más próximas al lenguaje real. La red social, que asegura que realiza un total de 4.500 millones de traducciones al día a través de su plataforma, comenzará a atender al contexto de las conversaciones para elaborar las traducciones gracias a las nuevas herramientas. El uso de una característica como el contexto resulta especialmente útil en los idiomas con grandes diferencias gramaticales, como el inglés y el turco. Facebook ha manifestado que al análisis de la inteligencia artificial del contexto se podrían sumar en el futuro las fotografías que acompañan a la publicación. La implantación del sistema de inteligencia artificial ha mejorado la calidad de las traducciones en un 11% según la escala Bleu, que mide la precisión de las traducciones generadas automáticamente, según los datos aportados por la compañía de Mark Zuckerberg. En los casos en que el sistema encuentra abreviaturas o palabras no reconocidas, es capaz de proporcionar traducciones personalizadas. Sin embargo, para crear la red neuronal, Facebook ha optado por reducir el vocabulario para mejorar la precisión de las traducciones y la velocidad a la que se llevan a cabo. Además, la implantación del nuevo modelo de Facebook ayudará a la compañía a llevar a cabo conexiones entre distintos idiomas de forma directa, sin necesidad de pasar por el inglés como lengua intermedia, con un total de 2.000 direcciones de traducción posibles, según la red social.
01-01-1970 | abc.es
Yaiza Rubio, la primera mujer española en participar en los macro encuentros de hackers DefCON y Black Hat
La analista de inteligencia en ciberseguridad de la plataforma de Telefónica de ElevenPaths Yaiza Rubio se ha convertido en la primera mujer española en participar a las dos macroconvenciones de hackers celebradas en Las Vegas: DefCON y Black Hat. En la primera, ha dado una conferencia sobre cómo incluir un phising anónimo en las redes sociales aprovechando una brecha de seguridad, apoyado en la red oscura Tor. En Black Hat ha presentado un paquete de herramientas para rastrear la huella digital de usuarios durante una investigación. DefCON es uno de los encuentros de hackers más antiguos, fue fundado en 1993 por Jeff Moss. El cual más tarde fundó también el evento de Black Hat cuatro años después. Yaiza Rubio estudió Ciencias de la Información y tiene tres máster en Análisis de Inteligencia, Logística y Economía de la Defensa, y Derecho Tecnológico y de las TICS. Fue durante el máster de inteligencia que conoció a su actual compañero de trabajo Félix cuando decidió encaminarse por la rama del análisis de ciberseguridad. Antes de llegar a Telefónica trabajó en ISDEFE, la unidad de desarrollo de negocio de la industria española de defensa y seguridad. La primera mujer hacker española en participar en DefCON y Black Hat, ¿este momento se ha producido demasiado tarde? Sí es verdad que a lo mejor llegamos un poco tarde, pero tampoco hay tantas mujeres que se dediquen al mundo de la seguridad. También es verdad que no hay tantos hombres en España que les cojan conferencias en Black Hat y en DefCON, esto va como en todo a proporción. Si hay más hombres, pues por proporción deberán coger ciertas charlas de españoles que vayan allí y al ser menos mujeres, está claro. Es triste, a mí me encantaría que algún día esto no fuera noticia, que yo fuera noticia de ser la primera mujer en España que va a una conferencia de este estilo. Eso significa que cuando esto deje de ser noticia, será que hay más mujeres que se están atreviendo a presentar sus «papers» , publicaciones, investigaciones y a este tipo de conferencias. Sin embargo, es cierto que cada vez hay más. A día de hoy, todavía se ven más hombres en las facultades técnicas y en la rama de informática, ¿por qué cree que se produce esto? Es algo que se aprende desde pequeño, por la familia. No se incentiva a tener esa primera experiencia con la tecnología que sea favorable. En algún momento alguna niña que se ha atrevido de pequeña, se le ha quitado las ganas de intentar trastear. Hay gente que no lo ve bien, son estereotipos al fin y al cabo, que a medida que pase el tiempo los iremos puliendo y no estén tan marcado. Hace unos años, probablemente no se veía tan bien que una niña juegue y trastee con la tecnología, como pueda ser un niño. En ese proceso, sus padres o en el colegio recibe algún tipo de «imput» negativo que no entiende para qué sirve eso, pues es muy difícil que en un futuro se vaya a dedicar a eso. Yo creo que desde pequeños, lo que hay que hacer es fomentar esa experiencia primera, para que en el futuro esas niñas o esos niños, porque yo lo veo en general, puedan optar por esas carrera técnicas. En cuanto a tu currículum, sorprende para otra periodista que estudiase la rama de ciencias de la información, ¿cómo acabó de analista de inteligencia? Eso no es tan difícil, que una persona que haya estudiado ciencias de la información no es tan complicado. El tema es que esos analistas se atrevan de alguna manera a ser coger esa parte técnica de la ciberseguridad. El analista de inteligencia está clasificado en muchas ramas. Por lo que yo, me he atrevido a la parte de ciberseguridad y he tenido que evolucionar tan rápido y aprender tan rápido como la gente que trabaja en mi sector. Es verdad que entré en el sector con desventaja con respecto a otra gente que venía de carreras técnicas, pero la gente tampoco se tiene que estar echando las manos a la cabeza. Los que estudian carreras técnicas, a la hora de la ciberseguridad que es a lo que nos dedicamos nosotros, a lo mejor solo tienen una asignatura de seguridad en toda la carrera. Ahora está creciendo más, pero hace unos años no había tanta especialización de ciberseguridad y es mucho lo que haces después de la carrera, pero de cara al mercado laboral y no la carrera que hayas estudiado anteriormente. Una vez que yo me metí a ciberanalista, que no es tan difícil, el salto vino a través de certificaciones, cursos de hacking, intentar aprender todo lo que sea posible. En cuanto al tema que has tratado en DefCON, has acudido a hablar del Phising que se puede producir apoyándose desde la red Tor. Phising: método para engañar y conseguir que el usuario revele información personal como datos bancarios o contraseñas.El motivo de la charla era la creación de un phishing perfecto desde el punto de vista del atacante buscando dicha perfección desde el anonimato. Lo que hicimos fue identificar ciertas redes sociales todavía vulnerables a ataques de «reverse tabnabbing» con el objetivo de abarcar cuantas más víctimas mejor. ¿Qué nos permite hacer? En el momento en el que cualquier plataforma que no haya parcheado dicha vulnerabilidad, en nuestro caso serían redes sociales como Facebook o Google+, es posible publicar un link que dirigirá al usuario a una web abriendo una nueva pestaña en el navegador mientras que el contenido de la pestaña anterior habrá sido cambiada por otra bajo el control del atacante. Esta mala práctica en la gestión de enlaces se torna todavía más crítica cuando es posible alojar el phishing en la red Tor con el objetivo de borrar cualquier huella, así como hacerlo perdurable en el tiempo. Para ello no es necesario ni que las víctimas tengan Tor instalado, se puede forzar al usuario la navegación a estar páginas a través de plataformas de terceros que hagan la consulta por nosotros, como es el caso de los «gateways». Este modelo teórico de ataque tendría muy difícil seguimiento desde el punto de vista de las fuerzas y cuerpo de seguridad. En la red Tor hay páginas que si no están indexadas en la wiki (índice), ni si quiera se pueden encontrar, ¿qué se hace entonces? Crawlers: o araña de la web que rastrean las páginas en busca de linksClaro, ese es el tema. Imagínate que ese phising que yo he creado no lo publico en ningún sitio y no le digo a nadie donde está, nadie lo va a saber. Hay «crawlers» que cogen los links: abren la página, cogen los links dentro de las página y los almacenan, así como los links que redireccionan a otra. Si ese link no aparece en un sitio, ningún «crawler» lo va a pillar. Lo que se publica, o nuestra aproximación de lo que se publica en Google+ que es como nuestro método de difusión del phising, no aparece ese link, porque va a estar como las urls acortadas, por ejemplo los «bit.ly». Nadie va a saber que por debajo hay un «.onion». ¿Cuál es el producto que ha presentado en Black Hat? Hemos tenido dos presentaciones. La del primer día tiene que ver con el «framework», que hemos ido desarrollando durante cuatro años Félix y yo, orientado al análisis de inteligencia. Es un conjunto de herramientas que se dedica a la obteción de información en internet y muy orientada a perfiles, a la huella digital que pueda tener una persona en internet. Una analista de inteligencia cuando necesita hacer una investigación sobre ciertos perfiles en la red o la huella digital necesita acceder a cierta información: nombre de usuario, dirección de correo, nombre y apellido o dominios. ¿Las herramientas están desarrolladas para seguir un rastro? Sí, este software lo tienen integrado los cuerpos de seguridad en su unidad. Es software libre, todo el mundo se lo puede instalar, no es de pago y todo el mundo puede contribuir. La herramienta principal que hay es una llamada «usuzi». Si un usuario en Twitter aparece relacionado con un tema, te va a interesar tener toda la información relacionada con ella: qué cuentas tiene asociadas, qué perfiles en redes sociales puede tener. Pues lo que hace es coger ese usuario y validar 300 redes sociales, foros, también de la «deep web». Son bastantes fuentes de información, que además la herramienta está montada para que sea muy fácil de integrar en el entorno. Nosotros nos dedicamos a ciertas amenazas concretas, pero luego hay gente se dedica a terrorismo y necesitas integrar en otros foros. Luego también suele ser muy importante en una investigación validar que esa cuenta de correo existe. Intentas por combinaciones de nombres y apellido, y generas muchos alias que con ellos intentas forzar muchos nombres potenciales de correo.
01-01-1970 | abc.es
Llega Facebook Watch, un «YouTube» integrado en la red social
Facebook ha presentado Watch, una nueva pestaña de retransmisión de vídeos en la que se podrán disfrutar de las s eries y programas originales producidas por la propia red social. Este servicio estará disponible tanto en la versión web de Facebook como en las apps de smartphones y televisiones. Para preparar el lanzamiento de Watch, Facebook ha contactado con creadores de contenido con el objetivo de grabar material que se solo se podrá ver en este servicio. Entre estos programas exclusivos destaca Kitchen Little, un programa de cocina protagonizado por niños y creado por la famosa cuenta culinaria Tastemade, según adelanta el comunicado escrito en el blog de la red social. En Watch también habrá sitio para otros contenidos no exclusivos de Facebook, como programas de comedia y retransmisiones deportivas, protagonizadas por la emisión semanal de un partido de la liga de béisbol estadounidense. Facebook no ha dejado de lado su vertiente más social en su nueva plataforma de vídeos. Los usuarios podrán ver lo que sus amigos de la red social están viendo en la pestaña «Qué están viendo los amigos», y hablar tanto con contactos como con desconocidos mientras ven un programa o una serie. Además, Watch permite compartir programas y series con los amigos, guardar episodios para verlos más tarde, y descubrir nuevos contenidos en secciones como «Lo más comentado» o «Lo que hace reír a la gente». Hace unos meses se compartió que Facebook planeaba crear un servicio de programas originales para finales de verano. The Wall Street Journal adelantó por entonces que la plataforma estaría dirigida a audiencias de entre 13 y 34 años, aunque no se han sabido más detalles sobre este servicio hasta ahora. Facebook estrenará Watch durante esta semana para un número pequeño de usuarios en Estados Unidos, a modo de prueba. La red social adelanta que el servicio llegará a más usuarios dentro de poco, pero no ha revelado una fecha concreta.
912