viernes, 28 de febrero de 2014

Netflix se asocia con Comcast para optimizar su servicio de streaming: se tambalea la neutralidad de la red


    Netflix podría haber dado un primer paso, queriéndolo o no, para que la neutralidad en la red se tambalee un poco más. Su acuerdo, sin especificar si mediante pago o no aunque hay rumores que indican que sí que pagará a Comcast, con el operador permitirá a los usuarios del servicio de streaming recibir sus contenidos de forma optimizada.
     La manera de hacerlo sigue a la que otros servicios ya usan: conexión directa de Netflix a la red de  Comcast, sin intermediarios de por medio. Netflix había buscado desde hace meses esta conexión, de forma gratuita como ya tienen otros servicios conectados directamente, pero Comcast se había negado por el alto tráfico que el servicio de Netflix les generaba, exigiendo una compensación.
    El gigante del vídeo por streaming había entonces insinuado que la velocidad de acceso a su servicio estaba siendo perjudicado a propósito, y que por ello había bajado su tráfico. Y ahora llega el acuerdo tras un tira y afloja, lo que parece indicar que ha sido por acuerdo económico entre ambas partes. Para evitar más suspicacias, el anuncio de acuerdo de ambas compañías se especifica que Netflix no recibirá trato preferencial en la red. Ya veremos.

Source

Whatsapp sube su apuesta: llamadas de voz para antes del verano



         Whatsapp no quiere que nadie le quite el protagonismo de este mes de febrero y ha aprovechado el MWC 2014 para dar un golpe que se esperaba pero no acababa de llegar: llamadas de voz en su cliente de mensajería personal.
         Rompiendo su historia de tener una aplicación sencilla, los creadores de la aplicación recién comprada por Facebook han confirmado que lo que otros rivales han argumentado alguna vez como ventaja frente a ellos, las llamadas de voz, llegarán a su cliente antes de que llegue el verano. Esta funcionalidad se unirá a la grabación de mensajes que ya está disponible.
        Con una base de usuarios tremenda y siendo el estándar para comunicarse por mensajes de texto, este paso de Whatsapp la pone en la carrera por ser rentable más allá de tener nuestros datos, y ofrece a su usuario un paso lógico en su cliente. Pero queda esperar si ese aumento de prestaciones no supone un paso atrás en la simplicidad y eficacia de su programa. Si no logran implementarlo correctamente, tendrán una carga extra con la que hasta ahora el resto de rivales no han conseguido hacerle sombra.

Source

Mt. Gox desaparece y con ella podrían hacerlo unos 400 millones de dólares en Bitcoins

  
  La moneda P2P Bitcoin se está enfrentando en estos momentos a una de sus mayores crisis. Incluso ya aparece en los medios generalistas, atraídos por la importancia de la caída/huída de Mt.Gox, una de las mayores casas de cambio relacionadas con Bitcoin desde su creación.
      El sitio web de este servicio está ahora mismo desaparecido, y no hay buenos presagios teniendo en cuenta que ayer mismo se conoció que su director salía de la Bitcoin Fundation. Los rumores en el entorno    Bitcoin hablan de que podría declararse insolvente y dejar en el aire los 400 millones de dólares (al cambio) que manejan en Bitcoins. ¿El motivo? Un robo continuado en el tiempo de unos 744.000 bitcoins por problemas de seguridad .
       Si se confirma la caída, Bitcoin tendrá su primer revés serio en la imagen que proyecta. Por ahora el valor de esta divisa virtual ha descendido casi un cuarto de su valor y habrá que ver si el supuesto plan de reestructuración para reflotar la compañía con otro nombre logra recuperar la confianza y detener la crisis que ahora mismo se vive en el entorno.
La compañía ha realizado un comunicado reciente en el que no da explicaciones muy concretas pero dejan entrever que los problemas de seguridad están detrás de todo lo que está aconteciendo:

In the event of recent news reports and the potential repercussions on MtGox’s operations and the market, a decision was taken to close all transactions for the time being in order to protect the site and our users. We will be closely monitoring the situation and will react accordingly. 

Source

jueves, 27 de febrero de 2014

Las tarjetas gráficas con 8 GB de VRAM no son una locura, si no una realidad



       Resulta sorprendente ver que las tarjetas gráficas pueden tener la misma o incluso más memoria RAM que el PC en el que se usa. Es una posibilidad que, aunque poco probable, puede darse en ciertas configuraciones. Ya son bastante comunes las tarjetas con 4 o 6 GB, y pronto podríamos ir un escalón más allá. Sapphire prepara una AMD R9 290X con 8 GB de memoria GDDR5.
       Aunque el modelo de referencia de la R9 290X trae 4 GB GDDR5 de fábrica, ya sabéis que son los montadores finales los que se encargan de definir cuáles son las características definitivas. El modelo de Sapphire, definido como VAPOR-X R9 290× 8GB GDDR5, pertenecería a su gama VAPOR-X e incluiría un sistema de refrigeración específico de tres ventiladores, previsiblemente con un pequeño overclocking de fábrica.



        La VRAM no suele ser importante para la mayoría de usuarios, pero sí es cierto que hay algunos usos que utilizan esta característica más que otros. Por ejemplo el procesamiento de grandes cantidades de datos mediante OpenCL o el juego con altas resoluciones, algo cada vez más habitual con la llegada del UHD al mercado. Precisamente a lo largo de 2014 se espera que los monitores 4K empiecen a bajar drásticamente de precio, y ya para 2015 podrían ser una solución más o menos habitual para los consumidores.



       Por su parte, Sapphire es uno de los principales aliados de AMD y no sorprende que estén preparando un lanzamiento de estas dimensiones. Seguiremos teniendo el mismo núcleo Hawaii y todo será muy parecido a como lo es con los modelos actuales, pero con una posible mejora si manejamos cierto software.

Source

Los drones conquistarán definitivamente el mar: Rolls Royce lo quiere así


        Aunque el término drone hace referencia a un vehículo aéreo no tripulado, su futuro puede tener más relevancia en el mar. Así lo piensa Rolls-Royce, que según Bloomberg está convencido de desarrollar barcos de carga controlados a distancia.
       Para uno de los ejecutivos de Rolls-Royce, la tecnología ya está preparada para conseguir ese propósito pero hay muchos obstáculos que salvar. Tanto en el aire como en tierra o mar, retirar al humano del control y dejarlo todo en manos de la tecnología requiere acuerdos e inversiones de todas las partes. Y muy importantes.
       Una de las ventajas que el grupo Rolls-Royce Holdings ve en estos drones de carga marinos es que al eliminar parte de su estructura, pueden ser más ligeros y consumir sobre el 15% menos de combustible. Ese ahorro se enfrenta a la mejora en la tecnología y los sistemas de control que son necesarios para hacer que un gigante de los mares no tenga humanos a bordo, los cuales solo serían necesarios en las salidas y llegadas de los grandes barcos a puertos.

 El futuro que dibuja Rolls Royce no llegará pronto, y ya advierte que pasarán más de 10 años antes de que la legislación esté lista para poner en marcha estos proyectos, que por ahora solo ven posible a pequeña escala y de forma local si algún país se anima a legislar sobre ellos y poner las condiciones necesarias.

Source

miércoles, 26 de febrero de 2014

Si los 4 TB no son suficientes para ti, los discos duros de 5 TB ya están aquí



             El mundo del almacenamiento continúa evolucionando a pesar del fuerte empuje de los SSD, y aunque la novedad de la que hablaremos aquí por ahora sólo está disponible para el ámbito profesional no cabe duda de que pronto llegará al mundo doméstico. Los discos duros de 5 TB ya son una realidad y estarán disponibles en las próximas semanas, o a lo sumo unos pocos meses.
            Ha sido Toshiba la compañía que ha alcanzado esta capacidad con los modelos MG04SCA Series, y decíamos que estaban restringidos al entorno más profesional por algunas de sus características: interfaz SAS, MTTF de 1.2 millones de horas, 128 MB de caché. Junto al SAS de 5 TB Toshiba también pondrá a la venta hermanos pequeños de 2, 3 y 4 TB, todos en formato de 3.5 pulgadas y algunos con interfaz SATA.

           A los usuarios domésticos nos interesa mucho más la llegada de los discos duros de 5 TB al mercado, algo que aún no ha sido anunciado. Ni están, ni se les espera por ahora. Tradicionalmente siempre hay un tiempo de unos cuantos meses entre el lanzamiento de los discos profesionales y los domésticos, con lo que la lógica nos invita a pensar en que a lo largo de 2014 ya deberíamos tenerlos en las tiendas.
           Sea como fuere, los discos duros ‘tradicionales’ llevan varios años estancados en características y rendimiento, sin ofrecer nada nuevo más allá de una mayor densidad de datos. Los SSD son el futuro y ganan enteros a medida que van abaratándose y ganando capacidades más amplias.

Source

martes, 25 de febrero de 2014

Facebook sí que cree en pagar por Whatsapp



        Con esto de que Facebook ha comprado Whatsapp puede acabar sucediendo como con tantas informaciones que se envían y reenvían en cadena a través de ambos servicios: que habrá quien lo perciba como inverosímil precisamente porque son los grandes concentradores de viralidad, memes y, también, de “fakes“.
        Sin embargo lo podemos asegurar con certeza, ambas partes lo han confirmado, Facebook ha informado a sus inversores y 19000 millones de dólares – 4000 directos, 12000 en acciones y 3000 diferidos a la plantilla sujetos a permanencia en la compañía – van a ir de la empresa dirigida por Zuckerberg a esta otra sociedad de apenas 55 trabajadores. El debate en el día después está, por supuesto, en por qué y en si ese precio es razonable o estamos, como muchos vienen apuntando, ante una nueva burbuja “.com”


El porqué: lo social en el móvil no es lo social en el PC

Hace casi un año discutíamos por aquí por qué todo el mundo quería ser Whatsapp y desde entonces los puntos que facilitaban su liderazgo se han acentuado:
De hecho mi impresión es que durante años, y a menudo todavía, se ha despreciado la mensajería en el móvil por culpa precisamente del modelo económico y su perfil más bajo que los grandes sitios sociales como Facebook, Instagram o Twitter. Sin embargo, cada vez más, muchos analistas nos preguntamos si realmente ante lo que estamos es hacia una transición en la que “lo social en el móvil” se articulará sobre todo a través de los WhatsApp de turno y no sobre los hasta ahora se han contado como grandes referencias.
De hecho un aspecto a subrayar es que lo social en el móvil está desarrollándose de forma bastante diferente que en el PC. Si en la anterior generación tuvimos un gran ganador – Facebook, al que apenas Twitter hace frente con un modelo muy diferente – que se llevó por delante a todos los competidores locales y globales, en movilidad estamos encontrando que no se da el escenario de “el ganador se lo lleva todo”, sino que hay muchos actores relevantes porque el usuario en lugar de una web está optando por uso de varias aplicaciones.
Tenemos la mensajería con Whatsapp pero también Line, WeChat o Telegram, a la que Facebook respondió con su Messenger; tenemos la tendencia a los mensajes efímeros / autodestruibles con Snapchat como protagonista, a la que Facebook respondió con Poke; tenemos la lectura social con Flipboard como referencia, con Facebook Paper como respuesta; no me olvidaría de la fotografía móvil y la expresión personal de Instagram, con la que ya sabemos qué pasó.


           De hecho el éxito de Whatsapp es también, en parte, demérito de Facebook. Lo que se ha traslado al servicio de mensajes móviles es gran parte de esa comunicación más personal, cercana y privada que los usuarios se están llevando de Facebook porque éste se ha convertido en un espacio complejo, con demasiadas opciones e interrupciones, con una privacidad dudosa y difícil de configurar y poblada en demasía por marcas e individuos no tan conocidos.
         Con la compra de Whatsapp, Facebook lo que intenta es evitar a toda costa que otro consiga ser el “Facebook del futuro en el móvil”. De hecho la mensajería en el móvil es un espacio en el que es debatible si hay un espacio para un segundo relevante en la categoría, con una lectura que vacila entre aceptar que esa guerra ya la ha ganado Whatsapp y quien se resiste y no pierde la esperanza.
En la conferencia del anuncio de la compra, Zuckerberg ha subrayado algunos puntos adicionales: la mensajería de Facebook no es lo que se está utilizando en tiempo real, Whatsapp es la única plataforma en la que el usuario se involucra más que en Facebook… y definitivamente ven a Whatsapp como el líder de la mensajería que se va a comer, definitivamente, a los SMS.
Y todo esto nos lleva al precio…

¿De verdad valía Whatsapp 19000 millones de dólares?

         13800 millones de euros es una cifra que merece ser puesta en contexto. Unos 26 veces lo pagado por Instagram, un poco más de lo que vale Twitter en bolsa. De hecho Facebook se ha gastado todo lo que ingresa en dos años en esta compra. Con 450 millones de usuarios activos, lo que paga Facebook es 42 dólares por usuario.


     Este último número es el que probablemente va a centrar el foco de discusión alrededor de si el precio es desorbitado. Con el modelo actual en el que cada usuario paga un dólar al año por el servicio, estamos hablando de que el plazo de amortización de la compra – y sin contar costes de la plataforma – es de decenas de años. Lógicamente aquí falta tener en cuenta dos variables, una es que Whatsapp sigue creciendo y lo hace a un ritmo de un millón de usuarios nuevos al día; la otra es que haya otras razones de negocio tras la compra.
Lo primero que pensé es que, siendo Facebook, el movimiento tuviese un paralelismo con Instagram, al que ha acabado llegando la publicidad, pero tanto desde el comprador como desde el comprado y hasta desde el inversor que ha hecho el negocio de su historia aseguran que el producto se mantiene como hasta ahora, dirigido por los fundadores y con esa filosofía de “sin publicidad, sin juegos”



           Zuckerberg ha citado en la justificación de la compra que Whatsapp es quien está conquistando el mercado que dejan los SMS, valorado en cien mil millones de dólares. Esto situaría la compra dentro de lo razonable en precio si no tuviésemos que descontar que precisamente lo que está haciendo Whatsapp es convertir ese mercado en algo mucho más pequeño y que una vez que sitúas el precio en menos de un euro al año y envía todo lo que quieras, difícilmente vas a convencer al usuario de pagar más, máxime con tantas alternativas y todo el debate que tuvimos sobre lo de pagar por Whatsapp.
       Por lo tanto el retorno de esta inversión es, cuando menos, incierto. Tiene que ver con si consiguen alguna vía de ingresos extra y hasta donde es capaz Whatsapp de crecer. Si finalmente es el nuevo SMS a escala global (atendiendo a estadísticas actuales se acerca a la población mundial, otra cosa es el de smartphones con conexión) ciertamente Whatsapp incluso con sólo su modelo actual valdría mucho más de esos 19000 millones de dólares. Como en todas las grandes compras, sus dueños ceden parte de este valor potencial a cambio de más seguridad en los ingresos que les da la compra.
          Por último está el valor estratégico. Si Facebook deja que otro sea el “Facebook de la era móvil”, entonces ha hipotecado su futuro. Ojeando los primeros comentarios de los medios estadounidenses falta la perspectiva de que, aunque allí no sea tan claro, Whatsapp es un líder global muy fuerte en Europa, Latinoamérica aunque tiene competidores más fuertes en Asia (Line, WeChat). En todo caso, en ninguno de ellos, Facebook Messenger no es ni de lejos tan relevante ni tiene posibilidades de serlo.



         En el lado del vendedor – y no siendo uno demasiado devoto de Whatsapp – hay que reconocer el enorme mérito de esta compañía. Cierto es que en materia de seguridad han dejado históricamente que desear y que el producto carece de funcionalidades elementales como un cliente para ordenador, pero conseguir ser el estándar de facto de la mensajería y articular la solución tecnológica de enviar cientos de millones de mensajes diarios con apenas 32 ingenieros es una hazaña que casi nunca se pondera lo suficiente.
        La lectura final es que la compra de Whatsapp es un movimiento defensivo. En términos de retorno de la inversión no está tan claro en tanto en cuanto dependerá de que se mantenga el crecimiento, en términos estratégicos forma parte de la carrera frenética de Facebook por no perder el tren móvil: Instagram, el intento con Snapchat, Paper… ahora Whatsapp.

Source

lunes, 24 de febrero de 2014

'Her', la necesidad de conectar



Me encanta ‘Her’. Creo que es la mejor película sobre amor que habla directamente a una generación desde ‘Annie Hall’. Es un hermoso film que explora cuestiones sobre la naturaleza del amor y la conciencia.
Si lo dice Alfonso Cuarón… Al fin, mañana llega a la cartelera española uno de los estrenos más comentados de los últimos meses en todo el mundo, ‘Her’ (2013), el nuevo trabajo como director de Spike Jonze tras la aplaudida adaptación de ‘Donde viven los monstruos’ (‘Where the Wild Things Are’, 2009). Ganadora del Globo de Oro al mejor guion original y nominada a cinco Oscars —incluyendo mejor película—, ‘Her’ plantea un futuro cercano donde aparece un sistema operativo que promete “satisfacer todas las necesidades del usuario“.
Al usuario protagonista lo interpreta el camaleónico Joaquin Phoenix, líder de un reparto en el que encontramos a Chris Pratt, ahora en boca de todos gracias al sorprendente tráiler de ‘Guardianes de la Galaxia’ (‘Guardians of the Galaxy’, 2014). Llama la atención que en una película sobre el aislamiento humano y la dificultad para conectar participen cuatro actrices tan bellas como Scarlett Johansson, Amy Adams, Rooney Mara y Olivia Wilde, poderosos reclamos para el público masculino, por si no bastaban la firma del autor y temas tan fascinantes como el futuro de las relaciones sentimentales o las posibilidades de la inteligencia artificial.

¿Amor artificial?

Theodore está solo. Como tantísima gente. No obstante, su caso es especialmente curioso ya que se dedica profesionalmente a redactar mensajes, cartas y postales cargadas de sentimientos. Es capaz de empatizar con sus clientes, comprender la relación entre dos personas —al menos, el ideal de la misma— y expresar lo que uno siente por el otro de la manera más bonita y emotiva posible. Escribe sobre amar pero es un hombre solitario. Aparentemente, la razón es una reciente ruptura, el final de la relación con la mujer que amaba. Echa de menos estar con ella y no encuentra la forma de superarlo. O de sustituirla, si se quiere ver así.


        Ahí es donde entra una cálida voz, la de Samantha (Johansson), un ente artificial consciente de sí mismo, inteligente, que en un principio se relaciona con Theodore de un modo profesional, como una secretaria o una asistente personal a distancia. Tras un simple test previo a la configuración, la entidad es creada con unos parámetros que se ajustan a lo que el protagonista desea para sentirse cómodo. Es, en cierta forma, como si se le permitiera establecer comunicación con su mujer ideal. Una mujer que vive en sus dispositivos electrónicos. ¿El alma del futuro? Conforme Theodore y Samantha pasan tiempo juntos y se van conociendo —ella lee sus e-mails—, la relación se estrecha y se crea un vínculo entre ambos.
Enamorarse es como una forma de locura socialmente aceptable.
      De la ¿amistad? comienza a brotar algo que parece una relación sentimental. Se ríen juntos, necesitan hablarse, escucharse antes de dormir, sentir la compañia del otro. De manera natural, involuntaria, Theodore ha encontrado lo que buscaba, alguien con quien compartir la vida. Y surgen las inseguridades, los miedos, los problemas… El más grave: él es un ser humano y ella una “máquina”. Superficialmente, solo una voz en su móvil, como una aplicación más. Theodore se reencuentra con su ex en cierto momento del film y ella, al oír que Samantha es su nueva pareja, le dice: “Siempre has querido estar con una mujer sin tener que enfrentarte a nada real, y me alegra que hayas encontrado a alguien“.

 
       “Nada real“. Ciertamente, la relación no parece real cuando se la compara con la habitual entre dos seres humanos —a menos que vivan distanciados, lo que suele enfriar la relación hasta destruirla—. La mejor amiga de Theodore también ha sufrido un desengaño con una relación seria y entiende la opción de establecer un vínculo con una inteligencia artficial. Al fin y al cabo nos relacionamos con máquinas y robots diariamente. Su perspectiva es diferente: “¿No es vuestra relación real?“. ‘Her’ sería un fracaso si ante esa pregunta, no existiera duda, reflexión. La hay. Jonze logra crear una relación convincente, auténtica entre los personajes de Phoenix y Johansson. Capta la maravilla de amar. Señal inequívoca de que la película es un triunfo.
        Y lo es también porque no se queda en terreno fácil. No acude a los extremos, no se conforma, avanza y evoluciona. Una vez que se ha conseguido conectar hay que mantener viva esa conexión. Atender a las necesidades del otro sin descuidar las propias, y cuidar lo que se ha construido en común. Ahí reside el verdadero problema, también para Theodore y Samantha. Las peculiaridades de ella es lo que diferencia al film y genera mayor interés. Samantha puede ver y oír, pensar y hablar, soñar e imaginar, pero no puede oler, saborear o tocar. Carece de cuerpo. Y pronto, ambos sienten la curiosidad y el deseo de sentirse carnalmente, y comunicarse sexualmente.


     La imaginación les funciona hasta cierto punto —quizá Jonze se quedó corto con los inventos para provocar placer en el futuro—, y un experimento con una tercera persona fracasa estrepitosamente, lo que les lleva a un conflicto irresoluble. Frustración que tratan de paliar, aunque el rastro quede ahí. Del mismo modo, ella es capaz de procesar información a una velocidad imposible para un ser humano, y su voracidad de conocimiento parece no tener límites. Esto es, ella siente un deseo que Theodore no puede colmar.
     Y paro de contar. Por si aún no la habéis visto. Espero haber conseguido que os intereséis por ‘Her’, una joya, inspirada y divertida, cautivadora visual, emocional e intelectualmente. Habla de nosotros y de nuestro tiempo, de cómo nos relacionamos y qué papel puede jugar la tecnología en ese campo —¿nos distancia o somos nosotros los que nos distanciamos—. Una de las pocas películas que cada año reciben merecidamente la etiqueta de imprescindible. Como imprescindible es la versión original, os dejo el tráiler original y el español para que apreciéis las notables diferencias.


Source

viernes, 21 de febrero de 2014

IBM nos prepara para una Internet a 400 Gbps



      Un grupo de una división de IBM en Suiza ha desarrollado un conversor analógico-digital (DAC) ultrarrápido y muy eficiente en consumo energético que según la empresa podría permitir que los grandes centros de datos pudieran compartir datos a velocidades cuatro veces superiores a las actuales.
La tecnología permitiría que las tasas de transferencia de datos entre nodos conectados con estos sistemas fueran de los 200 a los 400 Gbps. Estos DAC aprovecharían la capacidad de los canales de fibra óptica de larga distancia, y eso redundaría en un beneficio para todos los usuarios.

      El DAC es aún un prototipo, pero durante el evento Solid-State Circuits Conference (ISSCC) que se está celebrando en San Francisco sus desarrolladores explicaron que una versión anterior ya está utilizándose para DACs comerciales que serán fabricados por parte de la empresa Semtech Corp.
Esta solución podría ser vital para asumir el crecimiento del consumo de datos que se viene experimentando en Internet desde hace años: hoy en día el tráfico diario llega a los dos exabytes por día, 20 millones de veces superior al que era en 1992.
Otro de los factores notables de este descubrimiento es el hecho de que este conversor logra esos resultados con una eficiencia energética destacable, y en Semtech ya están produciéndolo usando un proceso de integración de 32 nanómetros.

Source

Windows 8 pierde ritmo pero alcanza los 200 millones de licencias colocadas en el mercado



          A Microsoft le está funcionando Windows 8. No tan bien como la versión anterior, Windows 7, que en un año colocó 240 millones de licencias, pero como ha adelantado Tami Reller de Microsoft en una conferencia de tecnología, la nueva versión ya ha alcanzado los 200 millones en todo el mundo. No son malas cifras si pensamos que con Windows 7 el usuario alcanzó cierta confianza tras el fiasco de la versión anterior, y Windows 8 llegaba con mucha revolución.
          Esta cifra de 200 millones de licencias se ha alcanzado en unos 15 meses, reduciéndose lógicamente el ritmo tras alcanzar los primeros 100 millones en los seis meses iniciales, ritmo que en esos momento era idéntico al de la versión 7.
          Windows 8, un sistema que ya adelantamos que suponía una reto para la empresa, seguramente el mayor de su historia, con un salto muy importante en la interfaz y las aplicaciones que costaba dar. Tampoco ha acompañado la situación del mercado del PC, en recesión todo el tiempo que Windows 8 está en la calle.
Ese número de licencias se refieren tanto a las OEM en los equipos que compramos en tienda como a las licencias que el usuario puede adquirir sin equipo de por medio. Pero no hay datos, por ahora, para analizar el impacto de Windows RT en esas cifras ni el mercado del tablet en las ventas de licencias, una situación que nos gustaría conocer.

Source

Las baterías de ion de litio que no explotan están un poco más cerca



         Las baterías de ion de litio están presentes en muchos de los dispositivos que usamos: son útiles, pequeñas y dan una buena autonomía, aunque mejorable eso sí. ¿Cuál es el problema? Que a veces explotan debido a las reacciones químicas que se producen en su interior.
¿Se podrá evitar esto en un futuro? Un grupo de investigadoras de UNC Chapel Hill está trabajando para utilizar un nuevo tipo de polímero más estable que hará que las baterías sean más estables y no exploten.  ¿Cómo ha nacido este proyecto? Como muchas investigaciones: sin buscarlo mientras se buscaban otros fines y aplicaciones.

Más estable y mejor tasa de transferencia

        Joseph DeSimone y su grupo de investigadores estaban investigando la aplicación de un nuevo material para evitar que la vida marina se quedara pega en los cascos de los barcos. El proyecto cambió de rumbo cuando descubrieron que el material que estaban probando (PFPE) podía disolver sal de litio.
¿Qué tiene esto de relevante? Que es un requisito para producir conductividad en este tipo de batería, no todos los polímeros pueden hacerlo. ¿Lo mejor de todo? Que además era inflamable. Es decir, no tendremos que preocuparnos de que exploten por las reacciones químicas.
Sin embargo, esto no es todo: la tasa de transferencia es de, aproximadamente, 0,91. Es decir, está mucho más cerca que los electrolitos normales que suelen oscilar alrededor del 0,2. Tener un valor tan cerca de uno asegura que la transferencia es casi del 100%. Es capaz de mover los iones de la batería con un rendimiento excelente y permaneciendo en un estado estable.
         ¿Veremos esta aplicación en nuestros smartphones? Es probable, pero no será ni hoy ni mañana. El campo donde parece tener más potencial son las baterías de gran formato como las que se utilizan en los aviones. En nuestros móviles y tablets, el riesgo de explosión es menor debido a las temperaturas en las que suele funcionar.
En otros casos, como el mencionado con los aviones, la aplicación es mucho más sensible y esta mejora resulta crucial para evitar accidentes y, sobre todo, que funcione de forme óptima en circunstancias extremas de temperatura. Tardaremos en verlo, pero ya están trabajando en ello.

El futuro de otras baterías

       Hace tiempo estuvimos hablando de las baterías de los automóviles, en este nicho hay algunos avances muy interesantes como las baterías de litio y sulfuro. Aquí en Xataka y en Motor Pasión Futuro os explicamos al detalle cómo funcionan. Conseguir estabilidad es fundamental y en estos proyectos vemos que además el objetivo es mejorar la capacidad sustancialmente.


 Siempre tendremos la duda de su aplicación, cuando llegará a nuestros gadgets. Seguiremos esperando y mientras os iremos informando de todos los avances que harán posible, en un futuro no muy lejano, que todo esto que hoy os contamos sea posible mañana.

Source

jueves, 20 de febrero de 2014

El lío de Microsoft con el móvil, la efímera fama de Flappy Bird y refrigeración y data centers



Una vez más llega el fin de semana y os traemos las noticias más interesantes publicadas por otros medios en los últimos siete días. Una combinación de artículos sobre hardware, tecnología y ciencia que os mantendrán entretenidos un buen rato. Como siempre, recordaros que estos enlaces los compartimos a diario a través de nuestra cuenta de Twitter
  • Un ‘evangelista’ de Google Glass lo tiene claro: Glass es un dolor de cabeza, literalmente. En CNET
  • Nokia Lumia Icon, primeras impresiones de la mano de Engadget
  • Análisis de TUAW del gasto de Apple en Investigación y desarrollo desde 1995
  • El lío que Microsoft tiene montado con el móvil. Por Ben Thompson
  • Refrigeración gratis: en AnandTech explican cómo los data centers controlan la temperatura de sus servidores
  • En MWC Barcelona explican cómo móviles de 10 dólares están cambiando la salud de África.
  • Siguiendo a Google: todas las cosas en las que sabemos que Google está trabajando en 2014. En Ars Technica
  • La incapacidad de Twitter para comprar Instagram parece, cada vez más, un gran fallo. En Quartz
  • 28 días de fama: la extraña y verdadera historia de Flappy Bird. En Mashable
  • Tecnología y sociedad

  • Los dos lados de la mesa: el emprendedor y el inversor. Por Walter Kobylanski
  • En El País entrevistan al científico español Öscar Marín: “El sistema de ciencia español no responde a las necesidades del siglo 21”
  • Cómo llevar un Gobierno a internet y no morir en el intento: el caso de Reino Unido. En eldiario.es
  • La ideología que sustenta Wikileaks, Pirate Bay o Bitcoin. En Teknautas
  • Escucha mientras trabajas: lo que la música provoca en tu cerebro. En The Next Web
  • Amazon es bueno para los consumidores, ¿pero y para los libros? En The New Yorker
  • El mayor pelotazo se lo lleva una startup sin inversores ni redes sociales: Milanuncios. En Gananzia 

  • Source

    miércoles, 19 de febrero de 2014

    Qualcomm abandona el desarrollo de su CPU para Smart TVs



             Hace unas semanas Qualcomm presentó en el CES de Las Vegas dos nuevos procesadores destinados a coches y a televisores inteligentes, pero al menos en el caso del segundo la empresa ha tomado la decisión de abandonar ese desarrollo.
    El Snapdragon 802 no saldrá al mercado tras un anuncio en el que los responsables de la compañía han indicado que “la demanda global para procesadores específicamente diseñados para Smart TVs ha demostrado ser menor de lo que se estimaba“.

             Este procesador estaba pensado para poder distribuir contenidos 4K de forma fluida en nuestros televisores, además de ofrecer todo un rango de aplicaciones y de soporte multitarea, pero parece que el interés de OEMs y fabricantes por ese desarrollo ha sido muy limitado.
    Nada se ha dicho aún del Snapdragon 602, el microprocesador que se presentó junto al 802. Esta CPU orientada a coches de momento parece que sí mantiene sus opciones de salir al mercado. Como aclaran en el anuncio oficial, la decisión sobre el Snapdragon 802 “no afecta a otros productos que actualmente estamos distribuyendo en este segmento“.

    Source

    martes, 18 de febrero de 2014

    Banda Ancha o banda estrecha, ¿qué tenemos en España?


            En los últimos diez años, no cabe duda de que la velocidad de conexión a Internet se ha incrementado considerablemente en España, aunque este cambio no se ha producido por igual en todas las regiones ni ha alcanzado a una gran mayoría de población.
    Las operadoras y los Gobiernos se afanan en comunicar al público los grandes esfuerzos realizados por mejorar la situación, se proponen metas y objetivos más o menos ambiciosos, se dan cifras y se comparan velocidades con el resto de países de nuestro entorno, muchas veces de forma sesgada y poco realista. Entonces, ¿qué tenemos en España?, ¿Banda Ancha o banda estrecha?

    Qué significa realmente “Banda Ancha”

    Si os fijáis, he escrito “Banda Ancha” con mayúsculas. ¿Por qué? pues para diferenciarla de los términos habitualmente usados por operadoras, administraciones y otros medios que normalmente caen (intencionadamente o no) en el error de hablar de banda ancha para referirse a cualquier tipo de conexión fija a Internet o a tecnologías como el ADSL y superiores.
    Esta concepción de la Banda Ancha no es correcta, ya que el concepto es bastante más complejo de definir. No es un término absoluto, sino que depende de factores e intereses humanos, que se modifican en el tiempo.
    En su día dedicamos un extenso artículo a tratar de explicar qué es la Banda Ancha. Resumiéndolo un poco podríamos decir en una primera aproximación que la Banda Ancha es:
    El ancho de banda necesario para satisfacer las necesidades de transmisión de datos y acceso a servicios digitales de un cierto número de usuarios (humanos o no), en un momento histórico concreto y a través de una tecnología determinada.
    Por lo tanto, es un concepto dinámico, que varía con el desarrollo tecnológico, con el de los servicios y aplicaciones en la Red, así como con las expectativas e intereses de los consumidores, empresas, países y operadoras. Se trata de un concepto que ha ido evolucionando a lo largo de la historia, modificándose constantemente el umbral a partir del cual se considera que una conexión es o no de Banda Ancha.



            Es decir, hace 10 años, cuando apenas había servicios de vídeo por Internet, ni redes sociales, ni servicios de música en streaming, ni videoclubs online con películas en HD, una conexión de 1 o 3 Mbps podía considerarse en muchos casos de Banda Ancha, ya que satisfacía las necesidades de una gran parte de usuarios.
            ¿Qué pasa hoy en día? Pues que el número de servicios que consumen grandes cantidades de ancho de banda se ha incrementado exponencialmente, aumentando progresivamente el umbral de la Banda Ancha hasta cifras muy por encima de los 10 Mbps por usuario.
    Pongamos por ejemplo que para ver vídeos HD en tiempo real (uno de los servicios más exigentes sin contar las descargas) necesitamos entre 10 y 20 Mbps. Esa sería nuestra concepción de la Banda Ancha, para nosotros solos. Pero si somos más consumidores de ancho de banda en nuestro hogar, el umbral sube y la cifra mágica se incrementa fácilmente hasta 30, 50 o 100 Mbps.

    No toda la banda ancha que se nos vende es Banda Ancha

            Volviendo al tema comercial de las operadoras y administraciones, resulta habitual que se nos vendan conexiones de banda ancha de 3,6 o 10 Mbps, cuando en la mayoría de los casos sabemos que no es suficiente para satisfacer nuestras necesidades.
    Puede que si sólo nos dedicamos a navegar, a ver un vídeo ocasionalmente o a consultar el muro de Facebook, para nosotros 3 Mbps sean Banda Ancha, pero no lo es para la gran mayoría de la población.
             Y más aún cuando hablamos de las velocidades de subida, tradicionalmente abandonadas por las operadoras (salvo algunas excepciones), que hacen que en España, para una gran mayoría de población sea meramente anecdótico el poder usar servicios de sincronización de archivos en la nube, videoconferencias con buena definición o simplemente subir nuestros vídeos y fotos a la Red. Sí, con menos de 1 Mbps resulta muy pesado, molesto y desesperante subir vídeos a YouTube o simplemente mandar las fotos de las vacaciones por correo a los amigos.



                 Ante estas evidencias, la misión habitual de las operadoras y Administraciones es informar al consumidor de que las cosas han cambiado mucho en los últimos años, que cada vez hay más gente con conexiones ultrarrápidas. No lo dudo, pero para la gran mayoría de la población ésto no es del todo cierto.
                No hay más que echar un vistazo a los estudios sobre penetración de Internet en España, a las cifras sobre velocidades medias de conexión en nuestro país elaboradas desde el extranjero o simplemente a los informes periódicos de la CNMC, en los que observamos como más de la mitad de la población todavía no navega a 10 Mbps.


    La Banda Ancha es más que velocidad de acceso

             Pero además, si hacemos caso de la definición de Banda Ancha anteriormente expuesta, el concepto no sólo incluye velocidades de acceso, sino también otros factores, como por ejemplo las latencias y por supuesto el precio.
            Con una gran masa social en crisis, los precios de la Banda Ancha española no son, ni por asomo anchos. De hecho, informes tras informes confirman que España sigue teniendo una de las Bandas Anchas más caras de su entorno, y más aún si la relativizamos al poder adquisitivo de los ciudadanos.


         Llegamos al final y es hora de responder las preguntas inicialmente planteadas. ¿Qué tenemos en España?, ¿Banda Ancha o banda estrecha? Si atendemos sólo a criterios de velocidad podríamos decir que más o menos la mitad de la población tiene acceso a conexiones de Banda Ancha.
    Sin embargo, atendiendo al resto de criterios (especialmente al del precio) que definen lo que es verdaderamente una conexión de Banda Ancha, nos damos cuenta de que, en general, estamos lejos de alcanzar este tipo de conexiones.

    Source



    lunes, 17 de febrero de 2014

    Los enchufes también pueden ser inteligentes: DLink WiFi Smart Plug



            D-Link lanzará a lo largo el año un interesante elemento destinado al hogar. A efectos prácticos es un enchufe ‘inteligente’, manteniendo esa línea de productos que cada vez son más comunes y que ayudarán a darle ese toque tecnológico a nuestra casa.
            Bajo el nombre de D-Link WiFi Smart Plug nos encontraremos ante un enchufe ‘inteligente’ capaz de monitorizar nuestro consumo eléctrico en esa toma. Toda la información se trasmite mediante WiFi a la plataforma propia del fabricante, denominada mydlink, subiéndose a ‘la nube’ para que luego el usuario pueda mostrarla y estudiarla en un PC o en tablet/smartphone.

           WiFi Smart Plug utilizará WPS para conectarse al router y, por tanto, a Internet, requiriendo según D-Link una configuración sencilla y rápida. También dispone de un sensor térmico para evitar picos de tensión y proteger a los dispositivos que tengamos conectados al enchufe, todo en un accesorio de pequeño tamaño y que puede pasar perfectamente desapercibido en cualquier pared.
    En Estados Unidos saldrá por 80 dólares, y aunque en España desconocemos la cifra exacta prometen distribuirlo en nuestro país a lo largo del tercer trimestre del año, esto es, de cara al verano. Pondrán a la venta dos versiones, una con el protector térmico y otra sin él, y ambas con las capacidades WiFi para conectarse a Internet e informarnos a través de la plataforma mydlink que requerirá del registro para acceder a los datos.


           Algo parecido al Smart Plug es el WiFi Smart Power Strip, una regleta con WiFi que también podrá monitorizar la actividad eléctrica y las estadísticas de consumo subiéndolas a mydlink. Ésta llegará un poco más tarde, en los últimos meses del año, e igualmente su precio sigue siendo una incógnita aún.

    Source

    sábado, 15 de febrero de 2014

    ¿Mejoran las pantallas curvas la experiencia de la televisión?


        La evolución que han experimentado los televisores durante la última década ha sido asombrosa. No solo hemos presenciado la extinción prácticamente total de los televisores equipados con un tubo de rayos catódicos (CRT), los de toda la vida, sino también un desarrollo enorme de la tecnología LCD, y, en menor medida dado su declive actual, de los paneles de plasma.
        Los televisores equipados con un panel LCD se han ido haciendo progresivamente más finos y estilizados. Pero lo más importante es que su calidad de imagen ha mejorado mucho gracias a la introducción de tecnologías como la retroiluminación LED, los paneles con un refresco nativo elevado, los algoritmos de mejora del movimiento, las técnicas de atenuación local de la retroiluminación, y, por supuesto, el incremento de la resolución, entre otras mejoras. Y, ahora, están a punto de irrumpir los televisores con pantalla curva dispuestos a cambiar las reglas del juego.

    De las 576 a las 2.160 líneas, y ahora a por la curva

    Si nos ceñimos al número de puntos que componen la imagen de los televisores, comprobaremos que en pocos años hemos pasado de la resolución PAL estándar (720 × 576 píxeles) a la HD Ready (1.280 × 720 puntos). Y de esta última a la Full HD (1.920 × 1.080 píxeles). Pero esto no es todo. Las primeras teles 4K, o, como preferimos nosotros para ser lo más rigurosos posible, 2.160p o UHD, contienen el cuádruple número de puntos que las Full HD (3.840 × 2.160 puntos) y ya están en las tiendas. Y los televisores 8K UHD (4.320p) ya se atisban en el horizonte.

        
      La resolución es una mejora importante, no cabe duda, y ha sido uno de los principales motores del mercado de las televisiones. Sin embargo, el año pasado algunos fabricantes, con Samsung y LG a la cabeza, empezaron a mostrar en las ferias y otros eventos especializados en imagen las primeras teles OLED y LCD con panel curvo. La «explosión» definitiva de estas propuestas se ha producido hace poco más de un mes, durante el CES, que se celebró en Las Vegas a principios de enero. Y, de nuevo, ha llegado de la mano de las dos compañías surcoreanas que he mencionado en este mismo párrafo.
           Lo más curioso es que estos primeros televisores curvos han recibido una acogida desigual por parte de la prensa especializada. Hay quien defiende que ofrecen una mayor calidad de imagen, y, sobre todo, una experiencia más inmersiva. Y también quien opina que no solo no aportan nada, sino que, además, introducen algunos problemas que no están presentes en las teles planas convencionales. No es sencillo extraer conclusiones definitivas sin haber tenido la ocasión de probarlos con detenimiento, pero en este post vamos a intentar arrojar un poco de luz con el mayor rigor posible para averiguar si realmente merece la pena apostar por las televisiones con pantalla curva.

    Primero, las ventajas

            En mi modesta opinión, uno de los errores que están cometiendo las empresas que han apostado por las pantallas curvas es hacer demasiado hincapié en su capacidad de inmersión. La ligera curvatura de los paneles y su moderado tamaño (los mayores coquetean con las 100 pulgadas) no resultan decisivos en lo que concierne a este factor. Sin embargo, ofrecen otras mejoras importantes a las que merece la pena prestar atención. Una de ellas consiste en que, gracias a su curvatura, ofrecen una mayor inmunidad que las televisiones planas a las reflexiones de la luz ambiental. Esto provoca una menor fatiga ocular, y, a la par, una mayor legibilidad, lo que siempre resulta de agradecer.



       Una de las ventajas añadidas a la presencia de menos reflexiones es que el brillo puede ser menor que en una tele convencional debido a que no debe competir de una forma tan evidente con la luz presente en la habitación. Por esta razón, el consumo de las teles curvas puede ser ligeramente inferior que el de una televisión plana del mismo tamaño, lo que nos invita a hacer un inciso «off-topic»: en los smartphones con panel curvado esta característica es aún más importante debido a que puede incidir notablemente en su autonomía.
       Más cosas. Es importante que tengamos en cuenta que la curvatura del panel de estas teles es sutil. En el caso de las pantallas de Samsung el radio de curvatura es 4,2 metros, lo que significa que, si dispusiésemos de suficientes televisores como para construir un círculo perfecto con ellos, su radio sería de exactamente esos 4,2 metros, lo que nos permite formarnos una idea bastante precisa de que, efectivamente, su curvatura es ligera.

    Source

    Pasado y futuro de Microsoft: Imagen de la semana


              La noticia de la semana y puede que de todo el año, al menos en cuanto a repercusión de cara al futuro, ha sido la elección de Nadella como nuevo CEO de Microsoft, el cual estará asesorado por el hasta ahora presidente Bill Gates.
             Y nuestra imagen de la semana estaba cantado que tenía que ser la instantánea que reunió esta semana a los tres CEOs de la compañía: Bill Gates, Steve Ballmer y Satya Nadella. Ellos son el pasado, el presente más reciente y el futuro de una compañía que ha escogido a un consigliere para la guerra en la que el mundo de la electrónica está sumido.
    Nos esperan tiempos amenos y muy intensos, ¿te los quieres perder?

    Source

    viernes, 14 de febrero de 2014

    HP comenzará a cobrar por actualizaciones de firmware en servidores


              Los usuarios empresariales están acostumbrados a pagar contratos de servicios con proveedores de hardware para el correcto mantenimiento de sus equipos. En HP han dado un paso más y han puesto en marcha un nuevo programa que hará que solo usuarios con una garantía aún válida o aquellos miembros de su Care Pack Service puedan descargar firmware y actualizaciones para los servidores de este fabricante.
    La medida, anunciada el pasado viernes por Mary McCoy, vicepresidenta de la división de servidores de HP, probablemente no tendrá especial impacto entre los grandes clientes de la firma que suelen tener esos contratos de servicio, pero ¿qué pasa con las pymes que compraron servidores?

    Las actualizaciones, críticas o no, serán de pago

    HP ofrece desde hace años una serie de servidores “de gama baja” destinados a pequeñas y medianas empresas. Un ejemplo es el HP ProLiant MicroServer N40L, que se vendía por menos de 300 dólares. Como indican en ZDNet, este servidor tuvo un problema grave de incompatibilidad con Windows Server 2012 R2 (y Windows 8.1), y solo una actualización del firmware que apareció a mediados de noviembre de 2013 corregía el problema.



              Esa tardanza en la aparición de una solución hace ahora que los primeros compradores de esos servidores —que tienen garantía de un año— se queden sin garantía y, por tanto, sin acceso gratuito a esa importante actualización. A no ser que contratasen un plan de soporte extendido, claro, que es aparentemente lo que intenta HP con esta medida. Esos paquetes de servicio cuestan entre 125 y 200 dólares, lo que supone un incremento de precio notable para un defecto grave que teóricamente debía haberse corregido sin coste alguno para los propietarios
             La medida, por supuesto, ha provocado críticas entre usuarios y clientes de HP, que ahora tendrán que pagar por soluciones a problemas que son responsabilidad de HP, y no de los clientes. En esta empresa tratan de aclarar que la medida está en línea con otros fabricantes en este segmento, pero las comparaciones no son exactamente coherentes.
           Así, indican que Dell, Cisco o IBM realizan también este tipo de programas de soporte de pago para firmwares y actualizaciones, pero por ejemplo Dell ofrece acceso total a sus actualizaciones para servidores, sistemas de almacenamiento y productos de networking, mientras que Cisco obliga al registro de los usuarios para descarga, pero no hace que el usuario tenga que firmar un contrato de servicio con pago previo. IBM puso en marcha un programa similar al de HP, llamado IBM Fix Central cuyos términos indican que:
    A partir de enero de 2014, IBM implementará una validación de titularidad en Fix Central para determinados productos y actualizaciones de software y para actualizaciones de Código de máquina (también conocido como firmware o microcódigo) para determinadas máquinas. La titularidad de las actualizaciones de Código de máquina se comprobará mediante los números de serie proporcionados por el usuario. La titularidad de los productos de software se validará a través de la asociación del ID de IBM con los números de cliente de IBM relevantes. Puede solicitarse o requerirse información adicional para confirmar la titularidad. Estas validaciones de titularidad no se están implementando en todos los países en estos momentos.
    Este parece ser el único caso en el que la comparación es válida, pero como en este caso, HP parece querer aprovechar esa necesidad de soporte de muchas empresas —e incluso clientes individuales con esas necesidades hardware— que hasta ahora no pagaban y que ahora tendrán que comenzar a hacerlo.

    De momento solo en servidores

    La medida afecta, eso sí, a los servidores de HP, y otras líneas de producto más orientadas a usuario final como PCs, portátiles o impresoras, por ejemplo, parecen exentas de estar sujetas a este tipo de servicios de mantenimiento con un coste económico.
    Nos hemos puesto en contacto con HP para tratar de aclarar la situación y los responsables de esta firma en España no han podido dar datos concretos de momento, aunque esperamos poder actualizar esta información lo antes posible para saber cómo afecta este anuncio a los clientes de HP —tanto en el segmento de servidores como en el resto— en nuestro país.

    Source

    jueves, 13 de febrero de 2014

    AMD R7 250X es su nueva gama de entrada más barata



           El último lanzamiento de AMD en lo relacionado con las tarjetas gráficas dedicadas se ha hecho efectivo hoy. Es la AMD R7 250X, su nueva tarjeta gráfica perteneciente a la gama de entrada, barata y sin demasiadas novedades respecto de lo que ya conocíamos.
    AMD R7 250X llega al mercado español con un precio oficial de 84 euros, y siendo una AMD 7770 adaptada a la nueva generación. Núcleo Cape Verde XT a 1 GHz., 1 o 2 GB (según modelo) de memoria GDDR5 de 128 bits, 640 núcleos OpenCL y un TDP máximo de 95 vatios.



    R9 270X R9 270 R7 260X R7 260 R7 250X
    Núcleo Curaçao XT Curaçao Pro Bonaire XT Bonaire Cape Verde XT
    Arquitectura GCN GCN GCN GCN GCN
    Núcleos OpenCL 1280 1280 896 768 640
    Memoria 2-4 GB GDDR5 2 GB GDDR5 1-2 GB GDDR5 1 GB GDDR5 1-2 GB GDDR5
    Ancho memoria (bits) 256 bits 256 bits 128 bits 128 bits 128 bits
    TDP estimado 180 150 115 95 95
    Precio (dólares) 199 179 139 109 99
    Lanzamiento Oct 2013 Nov 2013 Oct 2013 Dic 2013 Feb 2014
           Nada nuevo más allá de un popurrí de un modelo ya existente que, eso sí, baja significativamente de precio hasta los 99 dólares, respecto de los 160 que costó la 7770 en su lanzamiento. Sigo pensando que gráficas como la R7 250X no tienen sentido en el mercado actual en el que el empuje de las soluciones integradas en las CPU ofrecen un rendimiento menor, sí, pero sin marcar una clara diferencia. Si quieres un equipo para jugar lo mejor es ir a por una gráfica de gama superior (mínimo una R9 270 en AMD o una GTX 760 en NVidia), que éstas sí ofrecen un potencial lo suficientemente mayor como para ejecutar juegos con una cierta fluidez.
        Las gráficas de gama baja como es esta 250X están destinadas a morir en los próximos años. El rendimiento de las IGP irá comiendo terreno poco a poco hasta que terminarán desapareciendo completamente. Mientras tanto los fabricantes seguirán lanzando modelos, sí, pero cada vez con menos sentido.
    Nota: la imagen de este artículo pertenece a la R7 260X, pero la hemos utilizado aquí porque el diseño de referencia utilizado por AMD en la 250X es el mismo. Como siempre los diseños así como las características finales dependerán del fabricante de cada tarjeta.

    Source

    miércoles, 12 de febrero de 2014

    Virgin Atlantic ya prueba con smartwatches y Google Glass para mejorar la experiencia del pasajero


           Con el objetivo de mejorar la experiencia de los pasajeros de primera clase y darles una atención más que personalizada, Virgin Atlantic inicia hoy una prueba en la que sus trabajadores recurrirán a las Google Glass y smartwatchm, concretamente el modelo de Sony, para su trabajo.
           El personal de Virgin Atlantic que atiende en la Terminal 3 del aeropuerto de Heathrow en Londres recibirán a los usuarios de su servicio de primera clase con una atención personalizada que les proporcionará información al instante del estado del vuelo, tráfico, eventos locales o el tiempo. Esos datos podrían recibirlos en smartphones y otros dispositivos, pero hacerlo directamente en unas gafas o un reloj impresiona más.
          Más adelante, cuando la personalización de la atención pueda ser más extrema (datos sobre dietas especiales o preferencias de bebidas de los pasajeros), el uso de estas tecnologías parecerá más justificado.
    También la tecnología iBeacon de Apple está en fase de pruebas en ese mismo espacio. La utilidad es bastante directa, y los usuarios podrán recibir información de última hora sobre el estado de sus vuelos al entrar en determinadas zonas VIP del aeropuerto.

    Source

    martes, 11 de febrero de 2014

    Intel prepara chips gráficos más eficientes



           Los chips gráficos de nuestros equipos portátiles son responsables de buena parte del consumo de batería de esas soluciones, y por ello muchos fabricantes se limitan a hacer uso de chips gráficos integrados en lugar de gráficas dedicadas.
    Ahora Intel quiere tratar de ofrecer nuevas posibilidades en esos escenarios con un chip gráfico que permitiría obtener un rendimiento gráfico notable sin que la batería se viera comprometida de forma dramática.

           Divya Kolar, miembro del equipo de ingenieros que están desarrollando este chip, explicaba que “estos núcleos gráficos incorporan varias características novedosas que permiten mejorar la eficiencia energética en un 40%“.
           Como explicaba este ingeniero, eso permitirá que obtengamos más autonomía de batería si queremos el mismo rendimiento que teníamos, o que aun pidiendole más rendimiento en momentos puntuales al equipo logremos contar con una autonomía de batería más que decente.
    Aunque no se han dado aún muchos detalles, Intel ya demostró el año pasado su CPU con tecnología Near-Treshold Voltage (NTV), que permite que el procesador funcione con niveles de voltaje muy bajos. De hecho, esa CPU podía funcionar a una velocidad de 3 MHz con un voltaje de 280 mV, y tan solo 1,2 V al aumentar la frecuencia de reloj a 1 GHz. Se espera que esa capacidad se incorpore ahora a los chips gráficos.
    Esta semana se presentará un informe en la Solid State Circuits Conference que se celebra en San Francisco, además de demostrarse su rendimiento en un prototipo de chip de los laboratorios de I+D de Intel. Sin embargo, no se han dado fechas estimadas de la posible llegada de esos chips al mercado.

    Source

    viernes, 7 de febrero de 2014

    El grafeno conduce la electricidad aún mejor de lo que apuntaba la teoría


           Es el material del futuro. Del inmediato, se supone, porque son muchos los avances que se han realizado utilizando el grafeno como base. Este componente no acaba de ver una aplicación práctica masiva, pero eso no impide que se sigan demostrando sus grandes propiedades en el mundo de la tecnología.
          La última de esas características es su conductividad eléctrica, que según un estudio de físicos del Georgia Institute of Technology en Atlanta es 10 veces superior a la que se suponía que este material podría ofrecer en teoría.

         El proceso de fabricación de las “tiras” de grafeno ha sido distinto a lo habitual y se ha basado en un proceso que se describió por primera vez en 2010. El resultado hace que ese movimiento sin obstáculos hará que los circuitos transmitan las señales mucho más rápido y sin los problemas de sobrecalentamiento que normalmente se producen en los chips fabricados con semiconductores.
    Varios expertos indican lo prometedor de estos descubrimientos, y entre ellos en Nature citan a Francisco Guinea, un físico teórico que trabaja en el Instituto de Ciencia de Materiales de Madrid, que afirmaba que “el equipo ha estado mejorando tanto el sustrato como la capa de grafeno sobre él desde hace cerca de 10 años y ahora están recogiendo los frutos de ese trabajo“.
    Otros científicos destacan que con tiras de grafeno más largas aparecerían defectos en el material que destruiría esa rápida conductividad. Antonio Castro Neto, director del Centro de Investigación del Grafeno en la Universidad Nacional de Singapur comentaba que eso “es inevitable. Lamentablemente, el grafeno no es el material que debería usarse para aplicaciones digitales“, apuntando al fosforeno como alternativa en el segmento de los semiconductores.

    Source

    La muerte de Windows XP afectará al 95% de cajeros automáticos en el mundo


                  El sistema de 12 años de edad Windows XP posee el 95% de cuota mundial en cajeros automáticos, según el mayor proveedor de cajeros de Estados Unidos: NCR. Aunque la idea de que Windows XP esté detrás de todo el procedimiento que hacemos en un cajero sea un poco rara, este año eso deberá cambiar. Se estima que sólo en Estados Unidos hay 420.000 cajeros y que todos quedan vulnerables debido a la finalización de soporte para este sistema de parte de Microsoft, tendrían que ser actualizados durante el transcurso del 2014 para así evitar riesgos de seguridad y robos.
                 Mientras que Microsoft ha advertido acerca de esta fecha límite por años, la industria de los cajeros automáticos no ha reaccionado muy rápido. NCR confirma que un gran número de ellos llevan Windows XP versión completa en su interior y que la mayoría de los cajeros funcionarán con Windows 7, pero sólo el 15% de ellos correrán dicha versión de Windows en Estados Unidos para el mes de abril, de acuerdo a la empresa de software ATM KAL.
                 Lamentablemente, el proceso de migración comenzará en Estados Unidos como es usual, pero el resto del mundo tendrá que esperar a que el proveedor de cada país adopte el traslado, pues no bastaría sólo con actualizar el sistema operativo, sino también cambiar piezas de hardware, o en su defecto cambiar la máquina por completo, convirtiéndose esto en un verdadero dolor de cabeza para las empresas. Otra solución que adoptarían algunas compañías sería la extensión exclusiva de soporte por parte de Microsoft.
                Aunque esto no sugiera una rápida “evolución” de los cajeros automáticos y que dejaran de ser un fastidio para los clientes por su lenta respuesta y tipo de manejo a diferencia de otros con pantalla táctil y rápida respuesta, la actualización de hardware y software será definitivamente una ayuda a la seguridad y confianza para el consumidor y su dinero.

    Source

    Cortan el acceso a internet a un usuario español por piratería musical

    Se trata de la primera sentencia conocida en España que obliga a un proveedor de acceso a Internet a desconectar a un usuario por piratería musical, un supuesto recogido en la actual Ley de Propiedad Intelectual.

    Además, la sanción se produce sin necesidad de haber probado que el usuario, identificado por su apodo en Internet, nito75, compartiera sus archivos musicales con ánimo de lucro. La condena se produce tras una denuncia de la industria discográfica, agrupada por Promusicae, a la que se han sumado Sony Music, Universal Music, Warner Music y EMI, que recurrieron, asesorados por Sol Muntañola Abogados, la desestimación en primera instancia de sus pretensiones. En la sentencia del recurso de apelación, el juez de la Audiencia Provincial de Barcelona se ampara en el artículo 138 de la Ley de Propiedad Intelectual para instar a la operadora R, como intermediario, a cortar el acceso del usuario. Este artículo de la ley permite a los demandantes dirigir su solicitud de cese de una actividad ilícita “contra los intermediarios a cuyos servicios recurre la infractora, aunque los actos de éstos no constituyan en sí mismos una infracción”. El intermediario, en este caso R, es por tanto un actor pasivo que no interviene en la infracción pero sobre el que recaen obligaciones. En cuanto al segundo aspecto novedoso de la sentencia, que es obligar a desconectar a un usuario que se descarga archivos y los comparte sin ánimo de lucro, el Tribunal vuelve a recurrir a la Ley de Propiedad Intelectual, que de forma genérica considera una infracción el mero hecho de compartir masivamente, sin permiso, archivos musicales protegidos. La actual legislación está siendo revisada para incrementar la protección de los autores. El proyecto de ley ya ha sido aprobado y está pendiente del informe del Consejo de Estado para su sanción definitiva como ley, algo previsto para las próximas semanas.

    Source




    Se trata de la primera sentencia conocida en España que obliga a un proveedor de acceso a Internet a desconectar a un usuario por piratería musical, un supuesto recogido en la actual Ley de Propiedad Intelectual.

    Cortan el acceso a internet a un usuario español por piratería musical,Empresas de Telecomunicaciones, medios y tecnología. Expansión.com
    Se trata de la primera sentencia conocida en España que obliga a un proveedor de acceso a Internet a desconectar a un usuario por piratería musical, un supuesto recogido en la actual Ley de Propiedad Intelectual.

    Cortan el acceso a internet a un usuario español por piratería musical,Empresas de Telecomunicaciones, medios y tecnología. Expansión.com