Noticias de "facebook"

25-09-2017 | abc.es
Internet viaja a 169 terabits por segundo a través de un cable que cruza todo el Atlántico
A la velocidad de la transmisión conjunta de 71 millones de vídeos en alta definición es lo que se puede conseguir cuando el proyecto «Marea» -para obtener una velocidad de navegación de 169 terabits por segundo a través de un cable que cruza todo el Atlántico- vea la luz pronto. Ese futuro próximo está más cerca de lo que parece, porque Microsoft, Facebook y la empresa de telecomunicaciones Telxius han puesto fecha a la puesta en marcha, concretamente para 2018. El proyecto unirá a través de un cable submariano a 17.000 pies por debajo de la superficie del mar la costa de Virginia y la ciudad de Bilbao. En la localización estadounidense, tanto Microsoft como Facebook tienen centros de datos, lo que supone grandes beneficios para ellos. «Marea llega en un momento crítico», ha señalado Brad Smith, presidente de Microsoft en un comunicado. «Los cables submarinos en el Atlántico ya transportan un 55 por ciento más de datos que las rutas transpacíficas y un 40 por ciento más de datos que entre los Estados Unidos y América Latina. No hay duda de que la demanda de flujos de datos a través del Atlántico continuará aumentando y 'Marea' proporcionará una conexión muy fuerte para Estados Unidos, España y más allá». El proyecto pone de manifiesto el creciente papel de las empresas privadas en la construcción de la infraestructura del futuro, como Google. Microsoft y Facebook han diseñado el cable para que fuera operable con distintos equipos en red. A través de un nuevo diseño «abierto», el cable puede evolucionar con la tecnología, garantizando el máximo rendimiento para los usuarios actuales y futuros, a medida que crece la población mundial de usuarios de Internet. Najam Ahmad, vicepresidente de ingeniería de redes para Facebook, dice que el diseño flexible de «Marea» permitirá a la compañía adaptarse a las necesidades futuras y apoyar mejor sus servicios cada vez más intensivos en datos. El cable también sirve a la meta de Facebook de permitir a los usuarios tener «conexiones profundas y experiencias compartidas» con personas de todo el mundo, dice. Con el cable «Marea», la inversión de Facebook y Microsoft les da más control sobre la gran cantidad de datos que necesitan para moverse rápidamente alrededor del mundo. Ambas compañías se beneficiarán de las mejoras en los servicios en la nube para productos como Microsoft Office 365, Azure y Xbox Live, Facebook, Instagram y WhatsApp.
25-09-2017 | abc.es
La red social Facebook ha introducido en su red social para España una nueva herramienta con la que se enseña a sus usuarios a distinguir las noticias falsas, que consta de una guía con diez consejos como examinar las URLs de las noticias, revisar las fechas o contrastar con otras noticias. Leer en Frikipandi: Los 10 consejos de Facebook para detectar noticias falsas
25-09-2017 | abc.es
Por qué la inteligencia artificial aún no llega al nivel de «Terminator»
La ciencia ficción introdujo las posibilidades de las máquinas en un futuro no muy lejano, films como «Terminator» o «Robocop» mostraron las dos caras de los beneficios y los peligros tácitos de la robótica. Sin embargo, el debate desde hace años se encuentra en un vaivén y más cuando se tercia si se le da la posibilidad a un exoesqueleto de metal de tomar decisiones como un ser humano, revolucionando de esta manera el paradigma de la ética a través de la inteligencia artificial. Hace unos años, el científico Stephen Hawking alertó de la amenaza que podía representar la robótica, sobretodo cuando se le integra un sistema de inteligencia artificial e si esta no se moderaba: «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial, y serían superados por ella». Mark Zuckerberg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnología, además de ser parte de la postura contraria que alienta a los desarrolladores a no ser víctima del miedo. Por contra, Elon Musk -que ha fundado y dirige empresas como Tesla, SpaceX, Hyperloop One o Paypal, es quien lidera la versión moderada de implantar una serie de medidas reguladoras. Los dos tecnólogos tuvieron un enfrentamiento sobre las medidas delimitadoras en las que se debería desarrollar. Las opiniones generadas entorno a esta área han llegado a la formación de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas están fundamentadas en el terror. Lo cierto es que este verano saltó la voz de alarma cuando Facebook tuvo que desactivar un experimento de inteligencia artificial, porque dos bots programados para aprender a negociar habían llegado a la conclusión de que era más fácil regatear con un idioma más simple extraído del inglés; es decir, inventaron su propio lenguaje inentendible para el ser humano. Enrique Domínguez, director estratégico de InnoTech, aclara que en este tipo de experimentos ocurren desenlaces imprevisibles como parte de lo que supone la propia investigación. Por lo que, se debe matizar en el caso de estos dos bots que «no pensábamos que iban a reaccionar así», en lugar de «que no estaban programados para ello». Por lo tanto, «no se apagó porque se hubiera sucumbido al pánico, sino que ya se había cumplido el objetivo del experimento». Sin embargo, ambos bots no habían sido programados para que negociasen en un idioma entendible, porque al fin y al cabo las máquinas siguen sus normas establecidas en el código. «Esto que veíamos en la película de Terminator de una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos», recalca el Dr. en Inteligencia Artificial y profesor de la Universidad Europea Javier Sánchez. En la situación actual de la IA, «tenemos muchos sistemas que son especializados en labores concretas y las hacen muy bien, pero no hay un sistema que sea capaz de hacer muchas cosas muy bien hechas», añade además. Sin embargo, la preocupación existe y discurre no en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por la falta de un consenso de la ética que deben seguir los sistemas inteligentes y el nivel de ciberseguridad para que los delincuentes no alteren su lógica marcada. «Sí que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se está empezando a ver sistemas que están muy especializados en un área y eso puede suponer una amenaza», indica Sánchez. En este sentido, resuena a menudo las tres leyes de la robótica que estableció Isaac Asimov en su libro «Yo, robot» y que ha quedado plasmada a lo largo de la literatura de ciencia ficción. En primer lugar un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño, en el segundo caso un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley y por último un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Dichas reglas son una buena manera de plantear la ética en la inteligencia artificial, pero «no responde realmente a los límites que deben tener la inteligencia artificial. La forma de expresarlo todavía no es tan pragmático como las reglas del libro «Yo, robot» de Isaac Asimov» cuenta a este diario Isabel Fernández, Managing Director de Accenture Analytics en el área de IA. Dentro de la postura Accenture, recalca Fernández que es primordial que la IA «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo». Sin regulación ¿Por qué resultan tan difícil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuestión es a menudo respondida por el caso de los vehículos sin conductor, «un coche autónomo que haría si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones», expone Domínguez. Dentro de la cuestión ética también trae consigo el componente de la cultura, que no es universal. En las distintas vertientes de la IA, se ha obtenido en ciertas áreas un nivel de especialización mucho mayor, por lo que el Dr. Sánchez opina que «si esto lo combinamos con máquinas con autonomía de tomar ciertas decisiones estratégicas y operar en dispositivos que en este caso sí que podrían ser armas, pues puede suponer un riesgo». Por lo que, ajeno a ese mundo apocalíptico de máquinas superiores, hay que centrar los esfuerzos en controles de calidad para garantizar cierto nivel de calidad. La inteligencia artificial busca simular comportamientos que los seres humanos podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que están en el foco de atención. IBM es una de las compañías punteras en lo referente a lo que llaman sistemas cognitivos, el software Watson que utilizan algunas empresas para sus sistemas se están empleando en casos reales como el diagnóstico de enfermedades. Cada Watson es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que está conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podría abarcar, pero que despiertan dudas. Por un lado, el director estratégico de InnoTech explica que «estos sistemas expertos a mí me preocupan desde el punto de vista de ciberseguridad, porque qué pasaría si alguien consigue atacarlos y modificar su comportamiento -bien sea alimentándolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmutándolos para que de alguna manera cambien sus decisiones- ahí podríamos estar hablando de muertes de personas o incluso de colapsos de compañías a nivel económico». Asimismo, el profesor de la UE señala que «si estás hablando de diagnósticos clínicos estás hablando de protección de datos. Parece una contradicción, pero algunas de las aplicaciones más interesantes y más complejas, algunas ya eran capaces de hacer diagnósticos hace años, de cómo iba a evolucionar una enfermedad y con tasas de aciertos muy altas». Algunas empresas, ante la falta de consenso, han elaborado sus propia pautas y las comparten con otros entornos, como en el caso de IBM. La compañía tecnológica ha compilado tres principios. En primer lugar, lo que llaman el diseño que se refiere a «la capacidad de amplificar una persona», explica Elisa Marín, directora de Innovación IBM España, «debido a la gran generación de conocimiento entorno a la era digital, toda la información es valiosa» de manera diferente para cada persona. En segundo lugar, el principio de credibilidad para que «generemos confianza a las personas de su utilización». Por último el principio de fiabilidad del comportamiento para que solucione un problema de un dominio específico. Por otro lado, Marín también aclara que los programas Watson como son diferentes, también funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la información, así como los datos que se vayan generando vayan únicamente a «la entidad que aporta la solución». Por otro lado, también hay un Watson de computación cognitiva en las amenazas de seguridad. En el caso de la postura Accenture, la compañía apuesta por lo que llama la Inteligencia Artificial Responsable porque creen «que es una fuerza transformadora de la sociedad que sí debe haber niveles de regulación, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quitándonos tareas que pueden ser hechas por máquinas y dejándonos tareas que podemos aportar mucho más como humanos. Pero sí, tiene que estar regulada», defiende la Managing Director de Accenture Analytics.
25-09-2017 | abc.es
Por qué la inteligencia artificial aún no es Terminator
La ciencia-ficción introdujo las posibilidades de las máquinas en un futuro no muy lejano. Películas como «Terminator» o «Robocop» hicieron el resto. Mostraron dos caras de la innovación, la de los indudables beneficios (facilitar procesos industriales, agilizar mecanismos, ayudar a las personas) y, por supuesto, los peligros tácitos de la robótica (descontrol, crecimiento del desempleo, esclavitud humana). Sin embargo, ese debate iniciado desde hace años se encuentra en la actualidad en su punto ágilo. En un vaivén. Y más cuando se dan vueltas a los avances logrados. Si se le dota, por ejemplo, a un exoesqueleto de metal la posibilidad de tomar decisiones como un ser humano, ¿podrá revolucionar de esta manera el paradigma de la ética a través de la inteligencia artificial? Hace unos años, el científico británico Stephen Hawking levantó la voz para advertir las posibles amenazas que podían representar la robótica, sobre todo cuando se le integra un sistema de inteligencia artificial: «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial, y serían superados por ella», declaraba. Con el tiempo, otros conocidos miembros de empresas de tecnología y científicos se han sumado a la lucha por una regulación y un control que establezca los patrones éticos de una inteligencia artificial, ahora en fase de aprendizaje y desarrollo, para evitar que los efectos sean perniciosos en la sociedad. «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial»Stephen Hawking, científico Mark Zuckerberg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnología. Pero, además, forma parte de otra postura, una contraria que alienta a los desarrolladores a no ser víctima del miedo. Por contra, otros empresarios de la talla de Elon Musk -dirige empresas como Tesla, SpaceX, Hyperloop), lidera ahora la versión moderada de implantar una serie de medidas reguladoras. Los dos empresarios han tenido un enfrentamiento sobre las medidas delimitadoras en las que se debería desarrollar los avances en esta materia, cuyo progreso actual se está acelerando gracias a modelos de aprendizaje profundo (deep learning). Las opiniones generadas entorno a esta área han llegado a la formación de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas están fundamentadas simple y llanamente en el terror a lo desconocido. Este verano saltó la voz de alarma cuando Facebook tuvo que desactivar un experimento de inteligencia artificial porque dos «bots» programados para aprender a negociar habían llegado a la conclusión de que era más fácil regatear con un idioma más simple extraído del inglés; es decir, inventaron su propio lenguaje inentendible para el ser humano. Enrique Domínguez, director estratégico de InnoTech, sostiene en declaraciones a ABC que en este tipo de experimentos como el de Facebook acaba en desenlaces imprevisibles como parte de lo que supone la propia investigación. Por lo que se debe matizar en el caso de estos dos bots que «no pensábamos que iban a reaccionar así», en lugar de «que no estaban programados para ello». A su juicio, «no se apagó porque se hubiera sucumbido al pánico, sino que ya se había cumplido el objetivo del experimento». Sin embargo, ambas inteligencias no habían sido programadas para que negociasen en un idioma entendible, porque al fin y al cabo las máquinas siguen sus normas establecidas en el código. «Que una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos»Javier Sánchez, profesor de la UE «Esto que veíamos en la película de Terminator de una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos», recalca el doctor en Inteligencia Artificial y profesor de la Universidad Europea Javier Sánchez. En la situación actual de la inteligencia artificial, «tenemos muchos sistemas que son especializados en labores concretas y las hacen muy bien, pero no hay un sistema que sea capaz de hacer muchas cosas muy bien hechas», añade. Sin embargo, la preocupación existe. El debate, ahora, discurre no tanto en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por una falta de consenso en cuanto a tipo de ética y valores deben seguir los sistemas inteligentes, así como el nivel de ciberseguridad para que los delincuentes no alteren su lógica marcada. «Sí que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se está empezando a ver sistemas que están muy especializados en un área y eso puede suponer una amenaza», indica Sánchez. Asimov tenía la respuesta Como siempre, hay alguien que se adelantó a todo. Por ello, a menudo se suelen rescatar las leyes de la robótica que estableció Isaac Asimov y que han quedado plasmadas a lo largo de la literatura y las obras culturales de ciencia ficción. En primer lugar, según es código deontológico, un robot no debe hacer daño a un ser humano o por inacción permitir que un ser humano sufra daño. En el segundo caso, un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley. Por último, un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. «Es primordial que la inteligencia artificial «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo»Isabel Fernández, de Accenture Dichos mandamientos, explorados hasta la saciedad, son una buena manera de plantear la ética en la inteligencia artificial, pero «no responde realmente a los límites que deben tener la inteligencia artificial. La forma de expresarlo todavía «no es tan pragmático» como las reglas del libro «Yo, robot», sostiene a este diario Isabel Fernández, Managing Director de Accenture Analytics. En su opinión, es primordial que la inteligencia artificial «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo». Resulta paradójico porque, según informes, el estado de la inteligencia artificial se próxima a alcanzar la inteligencia del ratón. Sin una regulación concreta Aún existen muchos flecos por resolver. Sobre todo, en materia legal y jurídica. ¿Por qué resultan tan difícil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuestión es a menudo respondida por los ejemplos de comportamientos de los vehículos sin conductor: «un coche autónomo qué haría si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones», expone Domínguez. Dentro de esa cuestión ética también trae consigo el componente de la cultura, que tampoco es universal. En las distintas vertientes de la inteligencia artificial se han obtenido en ciertas áreas un nivel de especialización mucho mayor, por lo que Sánchez cree que «si esto lo combinamos con máquinas con autonomía de tomar ciertas decisiones estratégicas y operar en dispositivos que en este caso sí que podrían ser armas, pues puede suponer un riesgo». Ajeno a ese mundo apocalíptico de máquinas superiores, apunta a que hay que centrar los esfuerzos en controles de calidad. Se habla mucho de inteligencia artificial, pero a qué nos referimos. Estos avances buscan, en primer lugar, simular comportamientos de los seres humanos que podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que están en el foco de atención. IBM, por ejemplo, es una de las compañías más punteras en lo referente a lo que llaman sistemas cognitivos. Su software Watson se utiliza en algunas empresas para sus sistemas y se están empleando en casos reales como el diagnóstico de enfermedades. Cada software es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que está conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podría abarcar, pero que despiertan dudas. Enrique Domínguez explica así que «estos sistemas expertos a mí me preocupan desde el punto de vista de ciberseguridad, porque qué pasaría si alguien consigue atacarlos y modificar su comportamiento -bien sea alimentándolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmutándolos para que de alguna manera cambien sus decisiones- ahí podríamos estar hablando de muertes de personas o incluso de colapsos de compañías a nivel económico». Asimismo, Sánchez señala que «si estás hablando de diagnósticos clínicos estás hablando de protección de datos. «Parece una contradicción, pero algunas de las aplicaciones más interesantes y más complejas, algunas ya eran capaces de hacer diagnósticos hace años, de cómo iba a evolucionar una enfermedad y con tasas de aciertos muy altas», recalca. Pautas propias Algunas empresas, ante la falta de consenso, se han adelantado en la elaboración de sus propia pautas. Y las comparten con otros entornos, como en el caso de IBM. La compañía tecnológica ha establecido así tres principios. En primer lugar, lo que llaman el diseño que se refiere a «la capacidad de amplificar una persona», explica a este diario Elisa Martín-Garijo, directora de Innovación IBM España, «debido a la gran generación de conocimiento entorno a la era digital, toda la información es valiosa» de manera diferente para cada persona. En segundo lugar, -dice- el principio de credibilidad para que «generemos confianza a las personas de su utilización». Por último el principio de fiabilidad del comportamiento para que solucione un problema de un dominio específico. Por otro lado, Martín-Garijo también aclara que los programas Watson como son diferentes, también funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la información, así como los datos que se vayan generando vayan únicamente a «la entidad que aporta la solución». Por otro lado, también hay un Watson de computación cognitiva en las amenazas de seguridad. En el caso de la postura Accenture, la compañía apuesta por lo que llama la Inteligencia Artificial Responsable porque creen «que es una fuerza transformadora de la sociedad que sí debe haber niveles de regulación, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quitándonos tareas que pueden ser hechas por máquinas y dejándonos tareas que podemos aportar mucho más como humanos. Pero sí, tiene que estar regulada».
24-09-2017 | abc.es
La de Stewart Butterfield no es la clásica historia de joven ingenioso que se hace multimillonario antes de los treinta porque su cerebro exprimió una idea en un garaje. Silicon Valley, la cuna de la tecnología, ha potenciado esa visión de la mercadotecnia. No siempre es así. Es más, muchos ejemplos de proyectos que funcionan no surgieron bajo esa premisa. Slack, servicio digital colaborativo, ha logrado introducir en la empresa actual nuevos procesos Es hacer de la necesidad, virtud. Y lo ha conseguido. No hay más que fijarse en la aparición de otros proyectos similares que buscan servir al entorno laboral en la gestión, administración y toma de decisiones. Uno de los más recientes es Teams, de Microsoft, con el que el gigante del software quiere hacer de las suyas por medio de su propio invento dirigido, principalmente, al entorno laboral. Puesto que la firma americana es uno de los señores de el ecosistema empresarial, no era de extrañar que en algún momento lo intentaran por medio de una aplicación de gestión. Slack es producto de la casualidad. De la necesaria (y práctica) técnica de la prueba y el ensayo. Su embrión se encuentra en un entorno que, a priori, nada tiene que ver con su filosofía original. El multimillonario emprendedor puso en marcha con antelación dos videojuegos, primero Game Neverending (juego de rol masivo multijugador «online») y luego Glitch, que le ayudaron a obtener una experiencia de uso, necesaria para montar la «app», actualmente con registros de más de 5 millones de usuarios. El nombre del primer proyecto puede que hoy en día no sea bien recordado, pero sirvió de antesala a la aparición del servicio de fotografía Flickr, adquirido por Yahoo en 2005 por unos 35 millones de euros al contener una interesante función para albergar imágenes. El segundo data de 2011 y la partía de la idea de darle herramientas al usuario para crear un entorno compartido. Todo ello se plasmó en un nuevo proyecto, Slack, lanzado en 2013. Apostó por un modelo de negocio combinado; tiene una versión gratuita pero contempla funciones premium por suscripción. El resultado, un éxito sin contestación. Y eso que en un principio no estaba concebido para la gran empresa, pero en la actualidad cuenta con el apoyo de firmas como Samsung, eBay, Pinterest, HBO, LinkedIn o AirBnB. Todas estas ideas surgen como respuesta del nuevo ecosistema que impera en la industria. La empresa actual no tiene claro hacia dónde va. Las más tradicionales han visto peligrar sus negocios en los últimos tiempos a consecuencia del imparable tsunami digital, que ha logrado encumbrar a empresas más o menos recientes que hasta hace diez años casi ni existían. Al calor de esos acontecimientos nació Slack. La herramienta, que ha logrado enfrentarse a las grandes tecnológicas en una pequeña parcela, combina servicios de mensajería, salas de chat o integración de servicios de terceros (Dropbox, Google Drive, GitHub). Slack no es el primer software que intenta reducir la necesidad de empleo del correo electrónico en el entorno corporativo. Google, con el extinto Wave -funciones hoy en día integradas en Drive- el gigante de internet quiso popularizar un servicio colaborativo online. Fracasó y tuvo que mandarse a la papelera de reciclaje en 2012. Butterfield nació en 1973 en la bella ciudad canadiense Lund, donde pastan por el agua barcos veleros. Tan bucólica postal tenía que tener un hogar acorde a las circunstancias. Creció en una cabaña de madera sin agua corriente. Autodidacta en el campo de la programación informática, pasó por la Escuela Universitaria de St. Michaels en Victoria, (Columbia Británica). Entonces, se sacó algo de dinero mientras estudiaba diseñando páginas web. Curiosamente, la rama escogida no tiene mucho que ver en su actual trabajo, pero tal vez la filosofía, licenciado en 1996, le permitió disponer de una visión social más amplia. De hecho, tiene conocimientos sobre biología, ciencia cognitiva y comportamiento de la mente humana. Pero no fue hasta el año 2000 cuando cofundó Ludicorp en Vancouver con Caterina Fake (con la que tiene una hija, que nació en 2007) y Jason Classon. La empresa desarrolló inicialmente aquel juego de rol masivo multijugador Game Neverending antes de probar suerte con su siguiente iniciativa. En 2009, fundó una nueva empresa llamada Tiny Speck, de donde salió Glitch, que fue un fracaso rotundo. Hasta llegar el año 2013 cuando se elaboró Slack. Desde el primer momento tuvo una gran acogida. En solo una semana, la primera en que estuvo abierta al público, ingresó 120.000 usuarios. Los siguientes meses fueron en esa línea, con datos de crecimiento semanal del 10%. Hoy en día la empresa está valorada en unos 3.800 millones de dólares. Fue nombrada la empresa del año 2015 por la revista «Inc». El mismo año, «The Wall Street Journal» eligió a Butterfield como el innovador tecnológico del año. en los últimos meses ha protagonizado, junto a otras figuras del sector como Bill Gates (Microsoft) o Mark Zuckerberg (Facebook), la defensa de una renta básica universal en EE.UU.
22-09-2017 | enter.co
El cable submarino de Facebook y Microsoft ya está terminado
El cable submarino que conecta a América del Norte con el continente Europeo ya está completo. Este proyecto, realizado por Facebook, Microsoft y Telxius, promete suplir la creciente demanda de servicios en la nube y tiene una capacidad de 160 terabytes por segundo, según informó Venture Beat.Continúa leyendo en ENTER.CODeja un comentario en El cable […]
22-09-2017 | abc.es
Facebook, contra Trump: aquí están los anuncios pagados desde Rusia para influir en los usuarios
Facebook entregará al Congreso de Estados Unidos los datos y el contenido de los más de 3.000 anuncios políticos en su plataforma presuntamente pagados desde Rusia con el objetivo de interferir en las elecciones presidenciales de 2016. El propio presidente norteamericano Donald Trump ha tildado este asunto como «una mentira». «No quiero que nadie utilice nuestras herramientas para socavar la democracia», dijo en un vídeo alojado en Facebook el fundador de esta red social, Mark Zuckerberg, al anunciar la decisión de la compañía tecnológica. La pasada semana se conoció que Facebook había entregado información sobre anuncios y cuentas en su plataforma a la investigación federal encabezada por el fiscal especial Robert Mueller. Mueller es el encargado de indagar las supuestas acciones desestabilizadoras desde Rusia en las elecciones que ganó el candidato republicano y actual presidente, Donald Trump, así como los presuntos vínculos del magnate con esa trama. Previamente, Facebook había asegurado a comienzos de mes que 470 cuentas falsas probablemente operadas desde Rusia se gastaron alrededor de 100.000 dólares en contratar anuncios políticos en esta red social en los últimos dos años. Estas cuentas falsas estarían asociadas con una entidad rusa denominada Internet Research Agency. Los anuncios no se referían específicamente a las elecciones estadounidenses o a alguno de sus candidatos, pero sí parecían enfocarse en ampliar mensajes sociales y políticos controvertidos sobre temas raciales, de inmigración, acceso a las armas de fuego o cuestiones sobre la comunidad LGBT (lesbianas, gais, bisexuales y transexuales). Zuckerberg señaló hoy que se preocupa «profundamente» por el proceso democrático y por la «protección de la integridad» de sus mecanismos, y agregó que Facebook seguirá con su investigación interna sobre el rol de los anuncios de su plataforma en la trama rusa. Añadió también que están investigando a «actores extranjeros», incluidos otros grupos rusos y de otros antiguos estados soviéticos, para esclarecer cómo emplearon las herramientas de Facebook para sus propósitos. «Continuaremos trabajando con el Gobierno para entender el pleno alcance de la intromisión rusa y haremos nuestro papel no sólo para asegurar la integridad de las elecciones justas y libres en todo el mundo, sino también para darle a todos una voz», afirmó. La medida de Facebook llega después de unas semanas en las que diferentes voces en Estados Unidos reclamaban a la compañía que informara de manera más amplia acerca de sus hallazgos sobre las elecciones estadounidenses. «Ha sido una decisión difícil. Revelar contenido es algo que no hacemos a la ligera bajo cualquier circunstancia», afirmó en un comunicado el consejero general de Facebook, Colin Stretch. Aunque subrayó el compromiso de su plataforma con la privacidad de sus usuarios y sus contenidos, Stretch dijo que «la extraordinaria naturaleza» de este asunto y la información facilitada por el Congreso y los servicios de inteligencia, acerca de esfuerzos «variados y sofisticados» para comprometer las elecciones, les llevó a la decisión de compartir sus hallazgos. Por otro lado, Zuckerberg anunció que Facebook adoptará una serie de medidas para aumentar la transparencia de sus anuncios políticos y para incrementar el personal que revisa esos contenidos.
22-09-2017 | abc.es
WhatsApp sufre fallos de conexión durante varias horas: España estuvo afectada
No era tu móvil. Ha sido un nuevo fallo del sistema que ha empezado a afectar a algunos usuarios en media Europa, entre ellos, España. WhatsApp, conocida aplicación de mensajería, ha registrado interrupciones del servicio a primera hora de este viernes. Por ahora, se desconocen la causas. El servicio se cayó entre algunos usuarios durante varias horas, aunque la compañía ha reaccionado y ha solventado los problemas técnicos. Decenas de usuarios han empezado a experimentar problemas en sus perfiles en redes sociales, mientras que el panel de fallos de herramientas digitales Downdetector ha confirmado que se están dando en el momento de la redacción de esta información problemas de conexión. ABC ha querido comprobarlo y, en este caso, sí se puede enviar y recibir mensajes. Este diario se ha puesto en contacto con la compañía, pero todavía no ha recibido respuesta. DOWNDETECTOR Los primeros reporte de fallos se empezaron a dar este mismo jueves. Aunque las interrupciones afectan mayoritariamente a regiones de Europa occidental, también se han registrado casos en el sur de África. Por qué cae un servicio digital WhatsApp es una de las aplicaciones más extendidas del mundo. En la actualidad, la «app» propiedad de Facebook alberga a más de 1.300 millones de usuarios. Al ser una de las más populares, la demanda de novedades es muy alta. Cada cierto tiempo los ingenieros implementan nuevas funciones de cara a incentivar su consumo y mejorar la experiencia de uso. En muchas ocasiones, la caída de un servicio digital se debe, en parte, a la instalación en los servidores de nuevo código de programación que puede dar lugar a fallos o pruebas técnicas. Otras veces puede ser causa de un ciberataque o un colapso del número de usuarios. WhatsApp, en el último año, ha introducido importantes novedades en la plataforma, como la posibilidad de compartir documentos en diversos formatos, la llegada de los Estados o más opciones de texto. Sin embargo, desde hace algún tiempo la mayor demanda se centra en el sistema de eliminación definitiva de los mensajes enviados (deshacer el envío), una opción de la que se ha rumoreado que está próxima en llegar.
22-09-2017 | elpais.com
Los ?smartphones? que harán de la realidad aumentada algo cotidiano
Para que esta tecnología sea usada a diario por millones de usuarios se requiere de una gran escala, y ahí entran en juego Apple, Google y Facebook
22-09-2017 | elpais.com
Facebook, contra las noticias falsas en España
La red social estrena una herramienta para educar a la audiencia y aprender a detectar bulos
112