miércoles, 30 de noviembre de 2011

Códigos QR. ¿Que son?

Los códigos QR, ( en inglés QR Code) son un tipo de códigos de barras bidimensionales. A diferencia de un código de barras convencional ( por ejemplo EAN-13, Código 3 de 9, UPC), la información está codificada dentro de un cuadrado, permitiendo almacenar gran cantidad de información alfanumérica.

Los códigos QR son fácilmente identificables por su forma cuadrada y por los tres cuadros ubicados en las esquinas superiores e inferior izquierda.


Aunque el desarrollo inicial de los Códigos QR tenía como objetivo principal su utilización en la industria de la automoción, hoy por hoy la posibiidad de leer cógigos QR desde teléfonos y dispositivos móviles permite el uso de Qr Codes en un sinfín de aplicaciones completamente diferentes de las que originales como pueden ser:
  • Publicidad 
  • Campañas de marketing 
  • Merchandising 
  • Diseño Gráfico 
  • Papelería corporativa ( tarjetas de visita, catálogos) 
  • Internet, Webs, blogs
En la página http://www.codigos-qr.com/ ponen a disposición un generador de códigos QR. Desde dicho generador podrás crear fácilmente y rellenando un simple formulario todos los QR Codes que necesites, para que los puedas utilizar en tus proyectos, páginas Web, tarjetas de visita, etc.. Es rápido, fácil y Gratis!!!

Ya sólo te falta la herramienta que te permita leer los códigos QR desde tu teléfono móvil. Existen multiples lectores QR gratuitos para la mayoría de móviles y marcas, ( Nokia, I Phone, BlackBerry, Samsung, Siemens, etc..) encuentra el lector apropiado para tu terminal y empieza desde ya a descubrir lo que esconde cada QR Code

Fuente | codigos-qr.com
Imagen | Códigos QR

Lea también
. NFC ¿Que es y para que sirve?
. ¿Cuanto pesa internet?
. Una dirección IP no es una persona

Tráfico en la Nube crecerá 12 veces para 2015

Se pronostica que el tráfico global de la nube alcance 1.6 zettabytes para el 2015; el tráfico global en la nube excederá en un tercio todo el tráfico de centros de datos para el 2015.

En la presentación inaugural del Índice Global de Nube de Cisco (2010-2015) Cisco Global Cloud Index (2010 - 2015), Cisco estima que el tráfico global de computación en la nube crecerá doce veces, desde 130 exabytes para alcanzar un total de 1.6 zettabytes por año en el 2015, un 66 por ciento de tasa de crecimiento anual compuesta o CAGR. Un zettabyte es equivalente a un sextillón de bytes o a un trillón de gigabytes. 1:6 zettabytes es equivalente aproximadamente a:
  • 22 trillones de horas de música streaming. 
  • 5 trillones de horas de conferencia web de negocios con una cámara web. 
  • 1,6 trillones de horas de video streaming de alta resolución. 
El tráfico en la Nube es el componente de mayor crecimiento del centro de datos, el cual, por si mismo, crecerá 4 veces a una tasa de 33 por ciento de crecimiento anual compuesta, CARG, para alcanzar 4.8 zettabytes anualmente en el 2015. Se estima que el tráfico de la Nube representa el 11 por ciento del tráfico del centro de datos, creciendo a más de 33 por ciento del total para el 2015. La Nube se esta convirtiendo en un elemento crítico para el futuro de tecnologías de información (IT) y la entrega de video y contenido.

La gran mayoría del tráfico en el centro de datos no está causado por los usuarios finales sino por los centros de datos y las mismas nubes asumiendo tareas que son transparentes para los usuarios finales, tales como backup y replicación.

Para el 2015, 76 por ciento del tráfico del centro de datos se mantendrá dentro del centro de datos en la medida en que las cargas de trabajo migran entre varias máquinas virtuales y las tareas que suceden en un segundo plano, 17 por ciento del tráfico total deja el centro de datos para ser entregado al usuario final, mientras un 7 por ciento adicional del tráfico total es generado entre centros de datos por medio de actividades tales como la migración del tráfico entre el centro de datos y la nubes publicas (cloud-bursting), replicación de datos y actualizaciones.

Fuente | DiarioTi 
Imagen | Índice Global de Nube de Cisco

Lea también
. Oracle lanza Solaris 11 el sistema operativo para la Nube
. Oracle presenta: Oracle Fusion CRM

Microsoft Office 15 podría llegar a finales de enero

La compañía de Redmond planea lanzar sus aplicaciones de oficina junto al nuevo Windows 8.

La llegada del Windows 8 de Microsoft está cada vez más cerca. Éste año la compañía lanzó una versión para desarrolladores y se rumorea que en la próxima CES podría llegar a lanzarse la primera beta oficial del nuevo sistema operativo.

Aparentemente con esta beta podría llegar, en 2012, una versión de prueba del nuevo paquete Office. Según el sitio web WinRumors, se estaría compilando el Office 15 para que puede llegar a los usuarios correspondientes a finales de enero.

Como era de esperarse, Microsoft Office 15 utilizará el estilo Metro que está adoptando la empresa en todos sus productos, incluyendo el Windows 8, que ha sido desarrollado para ser utilizado tanto en PCs como en dispositivos táctiles.

Office 15 estaría acompañado de una nueva y rediseñada versión de Outlook Express, optimizada para su uso en tablets y también podrá incorporarse Moorea, una aplicación para navegar entre los documentos y fotos con mayor facilidad. 

Fuente | RedUsers
Imagen | Fuertes rumores indican que Microsoft Office 15 podría ser lanzado en enero del 2012.

Lea también
Socl, el proyecto secreto de Microsoft
. Microsoft, Yahoo, Aol se unen para vender publicidad
. Microsoft compraría Yahoo de una vez por todas

martes, 29 de noviembre de 2011

El 80% del correo electrónico es spam

El 80 por ciento del tráfico de correos electrónicos es spam, que va especialmente dirigido a usuarios de banca electrónica, redes sociales y jugadores online, según la compañía de seguridad G Data.

"Los correos electrónicos todavía constituyen un recurso importante entre los cibercriminales. Tanto es así que más del 80 por ciento del tráfico email es spam", explica el responsable de G Data SecurityLabs, Ralf Benzmüller. Con la llegada de momentos del año señalados, como puede ser la Navidad, el volumen de spam aumenta.

La distribución masiva de spam es una de las actividades más habituales de la economía sumergida utilizada por los ciberdelincuentes. En el cuarto trimestre de 2010, una media del 83 por ciento de todo el tráfico del correo electrónico en el mundo era spam, lo que equivale a unos 142.000 millones de correos electrónicos no deseados al día.

Una gran parte de su popularidad se explica por la atractiva proporción entre costes y beneficios. Se puede enviar un millón de mensajes por solo 399 dólares (298,9 euros), según el proveedor de servicio que se elija, aunque también existen ofertas que permiten enviar dos millones de correos electrónicos a mitad de precio.

Un operador con una pequeña red de unos 20.000 ordenadores zombis y una tasa de dos correos electrónicos por segundo puede precisar tan sólo 25 segundos para enviar un millón de correos electrónicos. Según los cálculos de la compañía G Data, un operador podría ganar unos 57.000 dólares (42.660 euros) por cada hora de funcionamiento.

Fuente | LaInformacion.com
Imagen | Fechas señaladas como las Navidades hacen que los cibercriminales aumenten su actividad en esta práctica 

Lea también 
. Diez consejos básicos de seguridad informática
. Como hacer contraseñas más seguras

Kingston lanza su modelo más rápido Flash USB

DataTraveler HyperX 3.0 permite trabajar en archivos o aplicaciones de gran volumen directamente desde la memoria USB 3.0, sin retrasos o interrupciones en el rendimiento.

Kingston Digital ha anunciado el lanzamiento de Kingston DataTraveler HyperX 3.0. Solución que cuenta con la velocidad más rápida y la mayor capacidad ofrecida por Kingston hasta ahora en una memoria Flash USB. 

Con una arquitectura de ocho canales de alta velocidad proporciona ratios de transferencia USB 3.0 de hasta 225MB/segundo en lectura y 135MB/segundo en escritura. Los usuarios pueden así ganar tiempo en los procesos asociados con la apertura, edición y copia de archivos de gran volumen o de aplicaciones entre dispositivos.

La DataTraveler HyperX 3.0 está disponible en capacidades de 64GB, 128GB y 256GB. El modelo de 256GB puede albergar aproximadamente el equivalente a 10 discos Blu-Ray (de 25GB de capacidad cada uno), 54 DVDs (de 4,7GB de capacidad cada uno), 48.640 archivos MP3 (de 4MB cada uno) o 13.473.684 páginas de archivos de Microsoft Word con gráficos y diversos formatos.

Fuente | DiarioTi
Imagen | DataTraveler HyperX 3.0

Lea también 
. Intel lanza un superchip de 50 núcleos 
. Disco Duro wiki para tablets

lunes, 28 de noviembre de 2011

2016: ¿El fin del dinero en efectivo?

La tecnología NFC crece a pasos agigantados. Los expertos auguran que entre 2014 y 2016 el dinero en efectivo deje paso a las transacciones a través del teléfono móvil.

Puede que estas sean unas de las últimas Navidades en las que regalar monederos y carteras sea de utilidad. Según un estudio de la consultora Forrester Research y financiado por PayPal dentro de los próximos cinco años ya no se utilizará el dinero en efectivo.

Según asegura el sitio británico especializado en tecnología The Register, otro informe realizado por ABI Research estima que ya a partir de 2014 el servicio de monedero Google Wallet empezará a llenar las carteras virtuales de los usuarios.

De esta forma, ambas compañías coinciden en el cambio de tendencia hacia un modelo de pago a través del móvil y de la tecnología Near Field Communication (NFC). En lo único en lo que no hay consenso es en la fecha de llegada. No obstante, esta no parece muy lejana.

De hecho, el pasado verano el presidente de la compañía de pagos online PayPal, Scott Thompson, también hacía sus predicciones: 2015 como fecha en la que desaparecerá el dinero en efectivo. PayPal tiene en la actualidad 100 millones de cuentas activas tras 13 años en activo.

Por su parte, el servicio monedero de Google, Wallet, ya está en funcionamiento en Estados Unidos y ABI predice que Apple entrará en el negocio el próximo año alterando significativamente el campo de batalla.

NFC es una tecnología inalámbrica de corto alcance y alta frecuencia que permite intercambiar datos entre dispositivos a menos de 10 centímetros y sin que haya contacto. Y, por tanto, el futuro cada vez más cercano del pago a través de dispositivos móviles.

Fuente | http://noticias.lainformacion.com
Imagen | Expertos auguran el fin del dinero en efectivo

Lea también
. NFC ¿Que es? y ¿Para que sirve?
. Visa ya forma parte de Google Wallet
. Google Wallet ¿Lanzamiento inminente?
. Google Wallet

Diez tecnologías futuristas incorporadas a los vehículos actuales

Varios avances que parecían sólo posibles en las películas de Hollywood ya están disponibles en automóviles de alta gama. Sensores de sueño, sistema antidistracción y visión nocturna.

Una vez Bill Gates comparó el desarrollo de la industria informática con la de la autmotriz y sentenció: "Si la industria de los automóviles hubiera avanzado tecnológicamente como la de los computadores, manejaríamos autos de 25 dólares que recorrerían 1.000 millas por galón".

Pero los últimos avances demuestran que es falso que los automóviles no "evolucionen" a la misma velocidad que otros sectores. De hecho, los principales fabricantes invierten una buena parte de sus recursos a Investigación y Desarrollo (R&D).

Año tras año incorporan en sus unidades novedosas tecnologías en seguridad, comodidad y conectividad, entre otras, las cuales con el tiempo las comparten con sus rivales o les sirven de inspiración.

El portal especializado Enter.co realizó un ranking con los diez avances que parecen del mañana pero que ya están incorporados en vehículos de alta gama o que están a punto de llegar a ellos.

Sensor de animales
Uno de los mayores factores de accidentalidad en carretera son los animales que, sin aviso, saltan a las vías y ocasionan graves e incluso mortales accidentes.

Para esto ya existe un sensor que, por medio de un aviso luminoso y sonoro, avisa a qué distancia se encuentra y cuánto se demorará en cruzarse por el camino.

Sistema antidistracción
El descuido es el mayor factor de accidentes leves, que a su vez son los que ocasionan buena parte de la congestión en las ciudades.

Los automovilistas despistados pueden acceder a un sistema que por medio de una lectura de los hábitos del piloto determina si está con sus cinco sentidos en el volante, y de lo contrario le envía una alerta para que se concentre o deje de manejar en el momento.

Sensor de sueño
Los microsueños, que son espacios cortos de tiempo en los cuales una persona pierde la conciencia, al igual que la somnolencia, pueden ser uno de los mayores enemigos de las personas al volante.

Un sistema que lee el parpadeo del conductor mediante rayos infrarrojos es la solución. Por medio de sonidos, lo "despierta" para que se detenga o busque el lugar más próximo para descansar.

Luces inteligentes
BMW es una de las marcas que más avanzó en mejorar en esta materia. Incorporó a todos sus vehículos, incluyendo las motocicletas, un mecanismo que automáticamente mueve las luces hacia la dirección donde va el carro, de manera que si va en un curva puede visualizar más allá de la salida.

Incluso hay luces que suben de posición o bajan de acuerdo con la inclinación del vehículo.

Visión nocturna
Aunque este parecía ser sólo un poder especial de los superhéroes, las automotrices están trabajando en mejorar la visión de los pilotos nocturnos. Funciona mediante luces especiales, infrarrojos y pantallas.

Este sistema detecta los peatones que no se ven a corta y mediana distancia, pero están frente al carro en movimiento, digitalizando la imagen en una pantalla sobre la consola.

Auto Start/Stop
Un sistema que apaga automáticamente el automóvil fue inventado y circula por las calles en algunos vehículos de gama alta, entre ellos los de la Serie 1 de BMW.

Se apagan por completo, por ejemplo, cuando se detienen en un semáforo y cuando el motor debe encenderse de nuevo basta con soltar el pedal del freno o aplicar el del embrague para que el vehículo despegue.

Detector de infartos
La tecnología de los automóviles llegó al punto que se entrecruza con la medicina. Todo con el fin de proteger y salvar más vidas en los caminos.

Por esto, existe una nueva silla que por medio de sensores realiza un escaneo del ritmo cardíaco, predice si tiene alguna falla o si tendrá algún infarto, para que este tenga tiempo suficiente para detenerse o acercarse a un centro médico.

Automóvil twittero
La conexión a las redes sociales no está solamente en un celular o tablet. Si bien por ahora se trata sólo de una unidad en prueba, se stá desarrollando un vehículo que envía tweets automáticos sobre el estado del tránsito o su localización y situación.

Parquea solo
Sin necesidad de un curso intensivo de conducción, un sistema que incorporan algunos automóviles que están en las ciudades latinoamericanas es capaz de estacionarlos por los conductores.

Sensores situados en las partes trasera, frontal y lateral leen la distancia vertical entre dos autos y miden si cabe en el espacio. De ser así, avisa y el conductor solo debe poner reversa, soltar el timón y esperar a que se ubique para poner "drive" otra vez.

Airbag entre pasajeros
Uno de los elementos de seguridad que más revolucionaron la historia de los automóviles es el airbag. Hasta el momento se conocían las laterales, de cortina y frontales. Pero recientemente se lanzaron los centrales que protegen a los pasajeros de chocarse entre sí, algo que ocurre con cierta frecuencia y que también puede causar lesiones.

Fuente | InfoBae
Imagen | Los principales fabricantes invierten una buena parte de sus recursos a Investigación y Desarrollo

Lea también 
. Intel predice las tendencias tecnologicas para el 2012
. A los CD's de música le quedan 14 meses de vida
. Las tendencias en celulares para los proximos 12 meses

viernes, 25 de noviembre de 2011

Google se deshace de proyectos que no le sirven

La compañía deja de lado siete proyectos que no han complido con las expectativas creadas.

Google es una de las empresas más grandes del planeta, mueve muchos millones de dólares pero no le gusta desperdiciar ni uno solo. Buscando en Internet puede verse la enorme cantidad de servicios que nos ofrece la compañía, De todos ellos habrá que tachar 7, que pasarán a ser desechados.

En el blog oficial de Google se han pronunciado al respecto:

“Estamos en proceso de cierre de una serie de productos que no han tenido el impacto que esperábamos, integrando algunos como funciones de otros de nuestros servicios y poniendo fin a proyectos que nos han mostrado un camino diferente hacia adelante. Nuestro objetivo es construir una experiencia de usuario en Google más simple e intuitiva.”

La lista de servicios que serán discontinuados en su desarrollo son:
  • Google Bookmarks Lists: es el servicio que permite compartir con amigos y contactos un listado de favoritos. Está previsto que finalizará el 19 de diciembre.
  • Google Friend Connect: el servicio será eliminado de los sitios que no son de Blogger en el mes de marzo del 2012, el mismo la posibilidad a los webmasters de agregar características sociales.
  • Google Gears: da capacidades offline a los navegadores llega completamente a su fin el 1 de diciembre Google Search Timeline: el servicio está siendo eliminado mientras leen la nota, los usuarios que quieran tener gráficas de tendencias pueden hacer uso de Google Trends.
  • Google Wave: fue el primer intento de lanzar una red social el mismo será cerrado en el mes de abril del 2012.
  • Knol: es el intento de la Wikipedia de Google.Knol tenía como objetivo que usuarios expertos en diversos temas elaborasen artículos de referencia, pero no logró tener éxito por ende será cerrado el 30 de abril de 2012.
  • RE<C: se trataba de un proyecto para mejorar la energía de paneles solares y será cerrado porque existen empresas que tienen mejores proyectos. 
El objetivo de estas acciones es enfocarse en los servicios más fuertes de la firma, centrándose también en desarrollar los productos que, para la firma de Mountain View, serán los más importantes en un futuro cercano.

Fuente | RedUsers
Imagen | Google busca ser mas eficiente y descarta algunos proyectos.

Lea también
. Google mejora el formato gráfico WepP que podría desafiar a PNG y GIF
. Google X el laboratorio super-secreto sale a la luz
. Google drive llegaría en breve

¿Se viene el iPad 3 con pantalla 3D?

La firma de cupertino estaría desarrollando una nueva tecnología de 3 dimensiones para su tablet que no requeriría de lentes especiales.

Bussiness Insider, quien estima que en marzo de 2012 se pondrá a la venta el nuevo iPad, asegura que la compañía de Cupertino está trabajando en una nueva tecnología 3D para su popular tablet.

El “iPad 3″ estaría equipado con una pantalla 3D cuya tecnología sería similar a la utilizada en los dispositivos portátiles Nintendo 3DS. Para BS, Apple ha estado desarrollando prototipos (llamados iPad 3D) que no requieren del uso de lentes especiales.

Cabe aclarar que Apple ha presentado una patente para pantallas 3D a principios de otoño. Desde Bussiness Insider incluso han especulado con que ésta tecnología patentada permitirá la manipulación de imágenes holográficas, a la manera de “Star Wars”.

De todas formas, el grueso de los rumores relacionados al nuevo iPad, estiman que no habrá demasiados cambios en la tablet, más que una actualización de procesador, almacenamiento y la incorporación de aplicaciones como Siri. Se cree también que la nueva tablet tendrá un diseño más delgado y ligero.

El siguiente video, que muestra una aplicación 3D desarrollada para el iPad 2 que no necesita de lentes, tal vez dé una idea de la tecnología que incorporará la próxima generación de tablets de Apple.

Fuente | RedUsers
Imagen | La próxima generación de iPads podría incorporar tecnología 3D

Lea también 
. Intel predice las tendencias tecnologicas para el 2012
. Nokia confirmó el lanzamiento de su tablet y un nuevo Lumia para el 2012
. Nokia presenta prototipo de pantalla flexible

miércoles, 23 de noviembre de 2011

NFC: qué es y para qué sirve

Aunque la tecnología NFC no es una novedad (en 2003 fue aprobada como estándar ISO/IEC), pues ya por 2008 se empezaron a ver los primeros periféricos que hacían uso de la tecnología combinada con el Bluetooth, es ahora cuando la misma está en boca de todos.

¿Y qué es eso de la tecnología NFC? ¿Para qué sirve? A esas preguntas que te estás haciendo ahora que sabes que el Nexus S lo lleva integrado y que Apple tiene grandes planes para ella, te contestaremos en este NFC a fondo.

NFC, tecnología inalámbrica de corto alcance

NFC significa Near Field Communication. Se trata de una tecnología inalámbrica que funciona en la banda de los 13.56 MHz (en esa banda no hace falta licencia para usarla) y que deriva de las etiquetas RFID de las que seguro que has oído hablar, pues están presentes en abonos de transporte o incluso sistemas de seguridad de tiendas físicas.

NFC es una plataforma abierta pensada desde el inicio para teléfonos y dispositivos móviles. Su tasa de transferencia puede alcanzar los 424 kbit/s por lo que su enfoque más que para la transmisión de grandes cantidades de datos es para comunicación instantánea, es decir, identificación y validación de equipos/personas.

Su punto fuerte está en la velocidad de comunicación, que es casi instantánea sin necesidad de emparejamiento previo. Como contrapartida, el alcance de la tecnología NFC es muy reducido, pues se mueve como máximo en un rango de los 20 cm. A su favor también juega que su uso es transparente a los usuarios y que los equipos con tecnología NFC son capaces de enviar y recibir información al mismo tiempo.

La tecnología NFC puede funcionar en dos modos:
  • Activo, en el que ambos equipos con chip NFC generan un campo electromagnético e intercambian datos. 
  • Pasivo, en el que solo hay un dispositivo activo y el otro aprovecha ese campo para intercambiar la información.
Seguridad de la tecnología NFC

Seguro que todo te parece muy interesante pero estás pensando en la seguridad. Bien hecho.

Dado que estamos ante una comunicación por radiofrecuencia, la lectura de nuestra transmisión es una posibilidad que existe siempre. En el caso de la tecnología NFC se cuenta con la ventaja de la poca distancia a la que la misma opera, pero no se puede descartar la copia de los códigos de nuestro chip para un uso fraudulento. Además, no solo la posibilidad de robar nuestros datos está ahí sino que la modificación o inserción de errores en la misma también existe.



Así que la seguridad vendrá de la mano de las que adopten las transacciones de esas comunicaciones, como puede ser la SSL.

Usos de la tecnología NFC

La premisa básica a la que se acoge el uso de la tecnología NFC es aquella situación en la que es necesario un intercambio de datos de forma inalámbrica. Lo usos que más futuro tienen son la identificación, la recogida e intercambio de información y sobre todo, el pago.

  • Identificación: el acceso a lugares donde es precisa una identificación podría hacerse simplemente acercando nuestro teléfono móvil o tarjeta con chip NFC a un dispositivo de lectura. Los abonos de autobús son un ejemplo muy válido. 
  • Recogida/intercambio de datos: Google es el principal protagonista de este uso, pues en combinación con las etiquetas RFID, utilidades como marcar dónde estamos, recibir información de un evento o establecimiento son inmediatas. 
  • Pago con el teléfono móvil: sin duda alguna es la estrella de los usos del NFC. La comodidad de uso y que el gasto pueda estar asociado a nuestra factura o una cuenta de banco son armas muy poderosas y esta tecnología está camino de ser el método de pago del futuro.
Sobre la implantación de la tecnología en dispositivos móviles, Nokia tiene previsto integrarla en todos sus teléfonos nuevos de este año 2011, Apple podría introducirla en su próximo iPhone, al igual que Blackberry. Y en cuanto a Google, ya lo ha colocado en el Nexus S y ha dado soporte para el mismo en Android 2.3. 
  
Fuente | xataka
Imagen | Tecnologia NFC

Lea también 
. Disco duro Wi-fi para tablets
. Chips ARM

Cae la teoría de los seis grados de separación

El mundo es más pequeño de lo que se pensaba, al menos en Facebook. Ahora, con cuatro contactos dos usuarios pueden conectarse. La hipótesis se reduce aún más si se limita a un país.

Los usuarios de la red social están cada vez más conectados entre sí, según revela un nuevo estudio realizado por la Universidad de Milán en colaboración con Facebook

El portal de Mark Zuckerberg publicó los datos del estudio en su blog, que confirman que la red social permite la conexión de dos personas de cualquier parte del mundo en menos pasos de los que se creía.

Los científicos encontraron que el número promedio de personas relacionadas entre una persona y otra es exactamente 4,74; un poco menos que en 2008, cuando eran 5,28. Según aumenta el número de usuarios, disminuye el número de pasos para el contacto.

La Universidad de Milán investigó las relaciones de amistad de 721 millones de usuarios del sitio, un 10 por ciento de la población mundial, como muestra para demostrar la popular teoría de los 6 grados de separación.

Esta teoría defiende que las personas tienen un contacto que a su vez tiene otro que tiene otro y así hasta 6 que unen a cualquier persona.

Los investigadores descubrieron que la propuesta de Frigyes Karinthy no sólo se cumple sino que se reduce. "El 99,6 por ciento de las parejas de usuarios analizados están conectadas por 5 grados y el 92 por ciento lo hace a través de 4 grados", explica Facebook en su blog.

Según la red social, ahora, con cuatro contactos, dos usuarios pueden conectarse, y todo gracias a las posibilidades que ha creado un servicio como Facebook.

Además, la idea se reduce aún más si se limita el ámbito de estudio a un país. De esta forma, analizando los datos de usuarios de un solo país, el número de pasos para conectar a dos usuarios se limita a 3. 
  
Fuente | Infobae 

Lea también 
. Cambio drástico en los dominios de internet

Google mejora el formato gráfico WepP, que podría desafiar a PNG y GIF

Entre otras cosas, el formato WebP resultará en archivos más ligeros que PNG en imágenes con fondo transparente.

Actualmente, en la web se utilizan tres formatos gráficos con soporte de todos los navegadores modernos: JPEG (Joint Photographic Experts Group), PNG (Portable Network Graphics) y GIF (Graphics Interchange Format).

La razón de que se utilicen tres formatos distintos es que ninguno de ellos cubre todas las necesidades. JPEG es eficaz para fotografías, pero utiliza una compresión que implica pérdida en la calidad de la imagen. PNG utiliza compresión que no implica en una pérdida similar, pero el resultado es fotos más voluminosas que JPG. PNG también soporta transparencia, característica utilizada frecuentemente.

GIF tiene numerosas limitaciones y ha sido desplazado por JPG. GIF es el único de los formatos que tiene soporte para animaciones, lo que a menudo es utilizado para presentar vídeos de corta duración.

En 2010, Google anunció su formato WebP, que en gran medida está basado en la misma tecnología que el formato de vídeo WebM. En esa oportunidad, el formato era considerado principalmente una alternativa a JPEG, debido a que utilizaba compresión con pérdida, que sería mucho más eficaz que la utilizada por JPEG. Esto implica que WebP resulta en archivos menores, pero con la misma calidad gráfica.

La semana pasada, Google presentó una nueva versión del formato WebP. Incluye soporte para un modo de compresión que no ocasiona pérdida alguna de calidad, aparte de incluir soporte para transparencia, también conocido como “canal alfa". La transparencia puede ser usada en ambos modos; es decir, con o sin pérdida.

Según Google, los archivos gráficos WebP comprimidos con modo sin pérdida son, en promedio, 45% menores que las mismas imágenes en formato PNG. Google destaca que incluso cuando los archivos PNG han sido comprimidos nuevamente con pngcrush y pngout, WebP los supera, con un peso 28% menor. 

WebP puede además sustituir GIF animados. El soporte para las animaciones fue incorporado en octubre, indica Google.

La ventaja de tener imágenes de menor tamaño es que pueden ser descargadas con mayor rapidez vía Internet. El problema con WebP es que el formato no cuenta, por ahora, con el apoyo de los fabricantes de navegadores. Aparte de Chrome, de la propia Google, sólo Opera ofrece soporte.

Sólo el tiempo demostrará si las nuevas características de WebP lo hacen más atractivo para el grueso de los fabricantes de navegadores. Anteriormente, Mozilla ha declarado que el formato no era lo suficientemente bueno. Microsoft ni Apple ofrecen soporte para WebP o el formato relacionado WebM, debido a que a su juicio infringen patentes de terceros. 
  
Fuente | DiarioTi 

martes, 22 de noviembre de 2011

Intel predice las tendencias tecnológicas para 2012

A pocos días que termine el año, Intel Corporation, junto a líderes de la industria tecnológica, comenzaron a proyectar las novedades e innovaciones que revolucionarán la industria durante el próximo año.

“Estamos en un punto muy importante en el tiempo", dijo Justin Rattner, director de Tecnología de Intel. “Es un momento en que la tecnología ya no es el factor limitante. Lo que nos limita hoy en día es realmente nuestra propia imaginación", añadió el director.

La demanda por un cómputo seguro y por conectividad crece exponencialmente:

- 2012 será un año de transición acelerada hacia sistemas conectados inteligentes. A medida que la conectividad se acreciente aún más, los sistemas inteligentes seguirán exigiendo más desempeño para ofrecer experiencias más ricas, y se volverán más fundamentales para nuestra vida cotidiana.
- La entrega de grandes experiencias, desde dispositivos a la nube, es la clave para construir una relación duradera entre los consumidores y los dispositivos que se utilizarán en la vida diaria. La incertidumbre económica se mantiene, y por eso las empresas deben hacer un gran trabajo para orientarse en este escenario incierto.
- Algunas empresas sufrirán una crisis debido a alguna violación de la seguridad en el acceso a los archivos de sus clientes, hospedados en la nube privada de la organización. Las preferencias de los consumidores guiarán las ventas tanto de las tiendas en línea como de las físicas. Se generará un aumento del uso de Internet y de teléfonos inteligentes. La nube se volverá más popular. El número de tiendas de autoservicio se incrementará. Los hackers causarán daños graves en la nube, que constituirán los primeros grandes ataques terroristas en el mundo virtual, lo que aumentará la conciencia de la necesidad de mayor seguridad. 

Ultrabook y nuevas experiencias de cómputo:

- El Ultrabook llevará un nuevo formato de bajo costo. “Todos podrán tener este nuevo dispositivo. En el pasado, los dispositivos como éste eran caros e inalcanzables para la mayoría de la gente; pero, ahora, podremos poner un Ultrabook en la mano de cada persona, indicó Jon Peddie, Jon Peddie Research.

 - En 2012 el cómputo ya no será solo para computadoras, sino que tendrá una relación estrecha con las pantallas. Se verán más formatos y opciones de pantallas a elegir y eso hará posible llegar a captar la forma como queremos que nuestras computadoras se encajen en nuestras vidas, y no al revés.

La tecnología de fabricación pasa a 3-D y estimula la innovación:

2012 será el año de lanzamiento de los transistores Tri-Gate de 22 nm en diversos segmentos de productos; estos proporcionarán una combinación de mejora del desempeño y eficiencia energética.

La innovación de las startups comenzará a despegar fuera de los Estados Unidos a medida que los aceleradores se expandan y la creatividad superará las oportunidades para el éxito de la imitación. El número de startups de tecnología ´inclusivas´ y ´verdes´ más que se doblará, ya que la cultura de Silicon Valley llegará a economías con diferentes desafíos.

Fuente | DiarioTi 
Imagen | Próximos desarrollos e innovaciones 

Lea también 
. Intel lanza un superchip de 50 núcleos

Las peores contraseñas usadas en 2011

La palabra password sigue al tope de la lista de términos elegidos para proteger el ingreso en diversas webs. El ranking surge de datos hechos públicos por hackers.

Uno de cada tres cibernautas olvida sus claves para acceder a los servicios en línea. Nombres de familiares y fechas de nacimiento suelen ser las contraseñas más frecuentes entre los internautas.

La expansión de las redes sociales generó la necesidad en los usuarios de crear cada vez más perfiles en Internet y, como consecuencia, más contraseñas.

Las claves son un obstáculo para los cibernautas. El problema es que el volumen de servicios en la red hace que sea difícil para los usuarios recordarlas todas.

Las contraseñas más inseguras aparecen en una lista creada por SplashData a partir de los datos hechos públicos por hackers a lo largo del año.

Aunque parezca insólito, password ("contraseña") sigue siendo la clave más empleada por los usuarios de Internet. Clásicos como qwerty y 123456 no están lejos en el ranking, que se conforma así:

1. password
2. 123456
3. 12345678
4. qwerty
5. abc123
6. monkey
7. 1234567
8. letmein
9. trustno1
10. dragon
11. baseball
12. 111111
13. iloveyou
14. master
15. sunshine
16. ashley
17. bailey
18. passw0rd
19. shadow
20. 123123
21. 654321
22. superman
23. qazwsx
24. michael
25. football

Desde hace años, se recomienda a los internautas que incluyan números y otros caracteres para hacer más difícil el trabajo de quien desee acceder a una cuenta ajena.

Otra recomendación es utilizar no menos de 8 caracteres, así como evitar emplear la misma combinación de nombre de usuario y pass en diversos sitios.

Pero a juzgar por los datos del ranking, lejos están los usuarios de tomar esas recomendaciones. 
  
Fuente | Infobae 
Lea también 
. Ser anónimo en internet tarea imposible 
. Cómo hacer contraseñas más seguras 
. Un «espía de los móviles» lee los mensajes a distancia

lunes, 21 de noviembre de 2011

Intel lanza un superchip de 50 núcleos

Con el tamaño de un microprocesador convencional, Knights Corner puede generar 1 teraflop de poder de procesamiento.

El primero de la serie de microprocesadores MIC de Intel, el llamado Knights Corner, puede inaugurar una nueva época. Con el tamaño de un microprocesador convencional, esta bestia de más de 50 núcleos puede generar 1 teraflop de poder de procesamiento en una estructura de 22nm.

Oímos hablar todo el tiempo de tecnologías e infraestructuras que se renuevan constantemente, evolucionando lo que hoy conocemos como informática de uso masivo, pero sólo algunos desarrollos son lo suficientemente importantes como para revolucionar, al menos en parte, la actualidad del ordenador de escritorio. Los microprocesadores tienen mucho que ver en esta área, donde hemos asistido con igual capacidad de asombro ante micros de 2, 4, 6 y hasta ocho núcleos, pero cuando hablamos del futuro los dedos de la mano no nos dan para contar los núcleos que Intel ha logrado introducir en el Knights Corner. Digámoslo juntos: CIN-CUEN-TA. Sí. Intel ha logrado acoplar (más de) cincuenta núcleos de procesamiento en un mismo microprocesador sin que el tamaño se vaya de los estándares que actualmente vemos para los microprocesadores terrenales, porque éste es de otro planeta.

22 nanómetros es la estructura de este nuevo microprocesador que Intel presentó en la SC ’11 y que promete sobrepasar la modesta cantidad de 1 TFLOPS de operaciones de punto flotante. Este sistema de procesamiento de ensueño está incluido en la arquitectura MIC (many integrated core) de Intel y se encargará de tareas de alta complejidad computacional como las que corresponden a la topografía, sismografía, simulación de escenarios y todas esas actividades que estás acostumbrado a leer junto a un artículo de un superordenador. Este, elKnigths Corner, sería el primer producto manufacturado con la etiqueta de la arquitectura MIC, que promete retrocompatibilidad con x86, aun utilizando tecnología 3D Tri-gate de 22nm.

10.000 procesadores en una mano
La noticia no puede evitar la comparación con lo sucedido en 1997, cuando Intel alcanzó por primera vez el teraflop a través del uso de 9.680 procesadores Intel Pentium Pro como parte del proyecto ASCI RED system del laboratorio Sandia. Así que todo lo que podíamos hacer hace una década y media con casi 10.000 procesadores, hoy está en nuestras manos –nunca mejor dicho- con un solo procesador. Lo que este desarrollo implica para la computación del futuro es realmente asombroso, pues sólo hay que pensar en la multiplicación del poder de un superordenador si en vez de utilizar 1.000 procesadores hogareños utiliza la misma cantidad pero de mini supermicroprocesadores como el Knigths Corner y sus más de 50 núcleos sin ocupar más espacio que los anteriores. Me disculparán, pero… wow.
 
Fuente | ABC.es 
Imagen | Rajeeb Hazra, de Intel, muestra el extraordinario microprosador Knights Corner
 
Lea también 
. El microprocesador cumplió 40 años 
. AMD presenta nuevo procesador

Facebook revela sus procedimientos para monitorizar usuarios y no-usuarios

Por primera vez, Facebook revela los procedimientos que utiliza para detectar usuarios y monitorizarlos.

Desde hace tiempo Facebook ha despertado interés de las autoridades de varios países, y especialmente de organizaciones de protección al consumidor, debido a sus procedimientos de monitorización y seguimiento de usuarios.

Una razón adicional a lo anterior es que la red social no sólo vigila a sus propios usuarios, sino también a personas totalmente ajenas al servicio. Por primera vez, Facebok revela detalles de tal práctica.

En una serie de entrevistas con gerentes y representantes de la empresa, realizada por el periódico USA Today, Facebook utiliza diversos métodos, dependiendo de si el usuario está conectado o no, o si es o no usuario del servicio.

Facebook crea una cookie la primera vez que el navegador visita una página de Facebook, y adicionalmente una denominada “session cookie" o “cookie de sesión" cuando alguien crea una cuenta. 

Estas cookies son leídas cada vez que el usuario visita sitios provistos del botón “me gusta" u otras extensiones sociales ofrecidas por Facebook, y que han sido implementadas en millones de sitios web. Facebook registra la fecha, hora y URL visitadas. Lo mismo ocurre con la dirección IP del usuario, resolución de pantalla, sistema operativo y versión del navegador.

La información es almacenada durante tres meses
Algunas de las informaciones reveladas por USA Today coinciden con hallazgos hechos en un informe holandés presentado en 2010. La diferencia es que la nueva información es más detallada, y es confirmada por la propia Facebook.

En conjunto, toda la información recabada por Facebook da forma a una bitácora electrónica de actualización permanente, que probablemente abarca a todos los usuarios de Internet del mundo. La única excepción son aquellos usuarios que han desactivado el soporte para cookies en sus navegadores. Facebook acota que las informaciones son borradas al cabo de 90 días.

La detección de los patrones de navegación de los miembros conectados, por encima de los sitios web de terceros, es vinculada al nombre de cada uno y su perfil en Facebook. Los usuarios que no están conectados o que no son usuarios registrados, son vinculados a un número de identificación único. Al respecto, Facebook señala que tal registro es anónimo.

En ningún caso Facebook constituye una excepción, ya que se trata de una práctica utilizada por Google y Microsoft, entre otras, aparte de grandes redes publicitarias.

Detección patentada
Facebook recalca tener objetivos "honestos" con sus procedimientos, y argumenta que sólo utiliza los datos para reforzar la seguridad y mejorar las funciones de la red social, como por ejemplo lo botones de “me gusta" y otros. Arturo Bejar, director de desarrollo en Facebook, declaró a USA Today que la empresa no tiene planes de modificar sus políticas sobre la materia.

Agregó que las intenciones de Facebook contrastan fuertemente con la práctica de numerosas redes publicitarias que deliberadamente, y en algunos casos subrepticiamente, crean perfiles de usuarios, que son vendidos al mejor postor o utilizados para presentar publicidad a la medida.

Esta situación podría cambiar, ya que Facebook ha solicitado patentar la tecnología que precisamente vincula la presentación de anuncios a los datos obtenidos mediante monitorización. "Hemos patentado muchas cosas, pero es mejor no sacar conclusiones sobre nuestros futuros productos con base en la solicitud de patente", comentó Barry Smith, portavoz de Google, a USA Today. 
  
Fuente | DiarioTi 
 
Lea también 
. Facebook lanzó una aplicación oficial para Ipad 
. Plan de facebook para vencer apple

viernes, 18 de noviembre de 2011

Diez consejos básicos de seguridad informática

Recomendaciones, desde lo más básico a lo más complejo, para proteger nuestro ordenador de acabar infectado en internet.

Estos son algunos consejos básicos de seguridad informática para que tu sistema, tu información sensible y tus datos se mantengan libres de infecciones. Desde lo más obvio, hasta lo más complejo, las recomendaciones sobre cómo protegernos, más en un medio tan belicoso como internet, son de gran utilidad. Si las pones en práctica, las posibilidades de infección caerán considerablemente.

Si bien estos consejos básicos de seguridad informática están dirigidos a un público menos experimentado y usuario de Windows -por ser el sistema más utilizado por los nuevos usuarios de informática y por ser el más afectado por virus y amenazas-, las reglas pueden trasladarse al resto de los sistemas operativos y a cada operación informática que queramos llevar adelante sin poner en riesgo nuestros datos y sistema. Dicho esto, vamos a ver qué es lo que estás haciendo mal para tu seguridad y cómo puedes solucionarlo.

1- Cuidado con los adjuntos en tu correo
Si no lo conoces, no lo abras. Con esa lógica de pensamiento, tendrías que quedarte a salvo durante mucho tiempo de los correos electrónicos de direcciones extrañas o que tienen archivos adjuntos como .pps, .zip, .exe, etc. Por más que no estés pasando un buen momento, y la invitación a tomar pastillas milagrosas de forma gratuita parezca tentadora... ¿Vale la pena el riesgo? Incluso cuando un correo con adjunto que no esperabas te lo envía un conocido, lo mejor es preguntarle mediante cualquier medio si él lo ha enviado para estar un poco más seguros. A nivel software, lo que puedes hacer son análisis del correo a través de tu antivirus o aplicación antimalware favorita. Desconfiar, sin llegar a la paranoia, es una buena herramienta para no caer bajo el yugo de las amenazas.

2- Actualiza el software de tu sistema periódicamente
Más reciente, más resistente. Esta debería ser una verdad de perogullo, pues es tan simple como pensar “si yo uso una aplicación que está desactualizada hace tres meses, llevo tres meses de vulnerabilidades no resueltas encima”, lo que hará a tu sistema más propenso a recibir malware. La reticencia a actualizar software (incluyendo sistema operativo) se debe a costos, a pereza y también, fundamentalmente, a olvido. Por eso es bueno contar con algunas aplicaciones que revisan si hay actualizaciones disponibles para el software que tenemos instalado y nos recomiendan su descarga. Actualizar soft no quiere decir que con la nueva versión no puedan venir otros agujeros, pero es menos usual que el caso anterior. Y en el caso de los sistemas operativos, el caso de Windows XP y 7 es ilustrativo por demás.

3- Crea mejores contraseñas y cámbialas cada seis meses
Más dificultad, menos previsibilidad. Un primer y obligado lugar es en tu campo de texto: “introduzca una nueva contraseña”. Es que apelar a la misma contraseña de años para todos los servicios a los que estás suscrito es realmente un riesgo, pues si te descubren una; descubren todo. Así que lo mejor es crear contraseñas por servicio o por género de servicio, además de tener un administrador de contraseñas, olvidarse de “recordar contraseña” en sitios públicos y usar aplicación para crear claves cifradas que ni el más nerd del MIT podría adivinar sin que le tomara toda su vida. 

4- Usa antivirus y aplicaciones anti-malware
No queremos héroes: usa Antivirus. El antivirus puede costar dinero o no, pero estamos de acuerdo en que utiliza recursos del sistema que te podrían dar algún dolor de cabeza. Pero, sopesando los riesgos, un antivirus activo es siempre más efectivo y seguro que un ordenador sin él. Pues en el segundo caso el sistema depende mucho de tu cuidado, y si algún día fallas, te olvidas o alguien usa tu sistema, adiós. Hay antivirus por doquier y ofrecen diferentes desempeños según coste y según uso de RAM. Escoge el que más te convenga. Lo mismo con las aplicaciones anti-malware, Spybot Search and Destroy y MalwareBytes son el dúo dinámico que viene al rescate ante la señal en el cielo de que han pasado tres días desde el último análisis.

5- Acostumbra a cerrar las sesiones al terminar 
Una ventana de entrada es también una ventana de salida. El ser humano es curioso por naturaleza, y en cuanto ve algo que no es suyo puesto a su disposición, lo más probable es que, al menos por curiosidad, haga uso de ese regalo del devenir. Esto suele pasar en los cibercafés, en las oficinas de trabajo y en todos los sitios donde los ordenadores se comparten. Si abres Facebook, Gmail o cualquier otro servicio, acostúmbrate a cerrar la sesión antes de levantarte de la silla para irte. Con esto evitarás entrar en la inmensa tasa de usuarios que pierden datos por dejar abiertas sus sesiones por ahí. Un buen ejercicio para generar el hábito es hacerlo en tu casa también, cada vez que te levantes del ordenador; cierra la sesión.

6- Evita operaciones privadas en redes abiertas y públicas 
Compartir la conexión, pero no los datos. Uno de los asuntos más complicados para muchos turistas es encontrarse de vacaciones y tener que realizar movimientos bancarios desde la red abierta de su hotel o desde algunas de las redes abiertas del lugar. Esto significa comodidad, pero también posibilidades para que el sniffing cobre forma y nos asalten las cuentas bancarias, sociales, de correo, etc. en un abrir y cerrar de ojos. Para evitar esto habría que evitar conectarse, y eso es como decirte que cortes la luz de tu hogar para que nunca te electrocutes. Por eso, lo mejor es usar medios alternativos como servidores VPN o, más accesibles, extensiones como Blacksheep, acceder sólo a sitios con protocolo HTTPS y tener el firewall al máximo de atención.

7- Activa el Firewall de tu sistema 
La Gran Muralla China no se construyó para decoración. Esta frase debería ser una invitación a que nos cuidemos más sin poner tantos caprichos a la hora de ser un poco cercenados en nuestra comodidad. Un Firewall o cortafuegos puede ser configurado totalmente para que la molestia de su presencia te resulte reconfortante a nivel protección, ya que puedes modificar el sistema de prioridades, agregar excepciones y, si estás en Windows, utilizar aplicaciones alternativas que te den más posibilidades aún.

8- Evita software con recurrentes asociaciones a afecciones 
CanciónMuyLinda.exe no es un MP3: Debido a la cantidad de estafas que existen en relación a los servicios web, aplicaciones y lo que se les ocurra, tener una idea clara de qué programas no contribuyen a que tu ordenador sea un refugio de virus y malware, es un tanto complejo. Por eso proponemos una vuelta a los clásicos y a sus alternativas. Pero como no se puede dejar de lado la innovación, es bueno que tengas como referencia algún sitio web que te limpie las dudas sobre la legitimidad de un software, pues mientras que muchos programas prometen eliminar malware, son ellos mismos quienes son reportados como infecciones, además de contaminar tu sistema para poder venderte la solución.

9- Desconéctate de internet cuando no la necesites 
Menor grado de exposición, menor tasa de infección: Hay excepciones por montones, pero la mayor cantidad de infecciones se dan cuando los ordenadores están conectados a la red, pues los spywares y malware realizan sus acciones comunicándose con servidores o remitiendo información utilizando puertos abiertos en tu conexión. Por lo que si quieres bajar la tasa de posibilidades de infección y utilizas el ordenador mucho tiempo sin necesidad de una conexión a la red (juegos, diseño, escritura, etc) o si te vas a ir a dormir o si directamente vas a estar ausente, desconectando internet te evitas que algo pase en tu sistema sin apagar el ordenador. Simple, pero 100% efectivo.

10- Realiza copias de seguridad 
Más vale prevenir que curar: En el caso de darse una situación donde pierdes datos por falta de políticas de seguridad en tu ordenador, por no llevar a cabo algo de todo lo que hemos contado arriba, la situación más común es la desesperación. Pero si serán importantes los backups o copias de seguridad, que cuando todos estarían inundándose en llanto, quien hizo la tarea y respaldó sus datos se lo tomará como una experiencia más. No hay VNP, antivirus, paranoia que le gane a la seguridad que brinda la existencia de los datos en otro disco o servicios en la nube. En cuanto a software, hicimos una recomendación de 6 aplicaciones para respaldar tus datos, escoge la que más te guste y siéntete tranquilo haciendo un Backup cada cierto periodo de tiempo. También puedes respaldar tu correo u otros servicios sociales.

Bonus: Educa a quienes comparten el ordenador contigo Cuantos más sepan, menos se equivocan: Este punto tiene por objetivo dejar en claro que si bien puedes ser un paranoico de la seguridad del ordenador, cuando a este lo tenga en sus manos un inexperto, pocos de tus recursos cumplirán su función y el ordenador tendrá muchas posibilidades de infectarse. Para evitar esto, sobre todo para los que tienen un ordenador familiar o lo comparten en su trabajo, lo mejor es educar a quienes tengan contacto con ordenadores en general. Tanto los que comparten el tuyo como con tu entorno. Enseñándoles este artículo, contándoles tu propia experiencia, recomendándole software de seguridad e instruyéndolos en el arte de estar atento a la peligrosidad que existe cada vez que conectamos el cable de red al ordenador.

Cuidar nuestros sistemas es una obligación que los usuarios tenemos que asumir cuando los creadores del software o del sistema operativo han cometido errores, por lo que en última instancia la seguridad depende de nosotros.

Fuente | ABC.es
Imagen | Es necesario utilizar antivirus y aplicaciones antimalware

Lea también
. Ser anonimo en internet una tarea imposible
. Como hacer contraseñas mas seguras en internet
. La contraseña perfecta

Nokia confirmó el lanzamiento de su tablet y un nuevo Lumia para 2012

El jefe de Nokia Francia anunció nuevos smartphones para la serie Lumia y la confirmación del lanzamiento de la nueva tablet de la firma finlandesa.

Hace algunos días hablábamos sobre la posibilidad de que Nokia vuelva a pisar fuerte en el mercado norteamericano con el lanzamiento de su tablet equipada con Windows 8. También revelamos la nueva serie de martphones Lumia de la firma finlandesa. Paul Amsellem, Jefe de Nokia Francia, se pronunció sobre ambos temas en una entrevista brindada al diario Les Echos.

Amsellem anunció que muy pronto habrá una versión superior al Lumia 800 que fue presentado hace unas semanas en la Nokia World 2011. El primer smartphone de la compañía en correr Windows Phone Mango será sobrepasado por un nuevo dispositivo, que se rumorea que será un Lumia 900 con 1.4Ghz, cámara de 8 megapíxeles y 16 GB de almacenamiento en su versión más económica.

El directivo explicó que el Lumia 800 es el equivalente a un “BMW Serie 5“. Mediante el uso de esa analogía reveló que pronto saldrán a la venta los que serían el “Serie 7″ y el “Serie 3″ de su gama de smartphones . El primero haría referencia al problable Lumia 900, mientras que el segundo se referiría a la ya presentada línea Lumia 710.

Por último, y con respecto a la tablet, anunció que el lanzamiento de esta se realizará en junio de 2012. Amsellem confirmó que la nueva apuesta de la firma en materia de dispositivos móviles correrá, como ya se había revelado, con el flamante Windows 8.

Fuente | RedUsers
Imagen | Nokia busca reconquistar el mercado norteamericano con su tablet, equipada con Windows 8.

Lea también
. Primera horas con el Nokia Lumia 
. Nokia presenta prototipo de pantalla flexible
. Nokia anuncia teléfono con Windows 7
. Nokia se despide de Symbian para siempre

jueves, 17 de noviembre de 2011

Google abre tienda de música en línea

Sólo disponible en Estados Unidos.

Los usuarios de Android podrán comprar música directamente desde el teléfono.

Según se esperaba, Google lanzó la tarde del 16 de noviembre su servicio ampliado de música. Google Music (al hacer clic en el enlace desde direcciones IP no estadounidenses, el servicio notifica que el servicio sólo está disponible en ese país).

Aparte de poder descargar hasta 20.000 archivos propios de música y compartirlos entre distintas unidades, los usuarios podrán comprar música desde tres de los grandes sellos discográficos, aparte de una serie de sellos y distribuidores independientes de música.

Por ahora, Google no ha llegado a acuerdo alguno con Warner. Al momento de su lanzamiento, la tienda online ofrece alrededor de 13 milllones de títulos.

La comercialización de la música se realizará mediante Android Market, ya sea en una unidad provista de Android 2.2 o superior, o mediante un navegador.

Google también ofrece su propia aplicación gratuita de Google Music para Android.

Por el momento, la tienda en línea y la aplicación están disponible únicamente en EEUU. Google no se ha referido al lanzamiento del servicio en otros países.

La música que los usuarios compren mediante Google Music, puede ser intercambiada con otros usuarios mediante Google+. Cada usuario podrá escuchar la canción del caso una vez.

El servicio es bastante ordinario y es lanzado con cierta tardanza respecto de la competencia. En 2006, Google desmentía tener planes de incursionar en el mercado de la música online.

Desde ya se esperaba que estaría disponible sólo en Estados Unidos, pero aún así causa decepción entre los usuarios de Android en el resto del mundo. Esta situación probablemente obedece a asuntos de copyright.

Google Music ha estado en etapa de pruebas desde mayo pasado

Fuente | DiarioTi
Imagen | Reproduci tu musica al instante, en donde sea!

Lea también
. Google a punto de lanzar su tienda online
. Google prepara su portal de musica
. Google Music

Socl, el proyecto secreto de Microsoft

Microsoft está experimentando con una beta cerrada de Socl, un servicio que mezcla las búsquedas con características propias de una red social. Los usuarios de esta herramienta pueden etiquetar resultados en los que están interesados, mientras que sus contactos podrán interactuar con las búsquedas que realicen.

En julio de este año apareció por primera vez información sobre Socl, aunque entonces se conocía como Tulalip. Sin embargo, ahora la compañía ha permitido que varias personas prueben la herramienta.

De este modo, en The Verge han tenido la oportunidad de probar Socl y han publicado una entrada con información sobre el servicio y sus impresiones.

Según explican, el diseño es muy similar al de Facebook, con una barra de navegación a la izquierda, un feed social en el centro de la pantalla y el lado derecho reservado para las invitaciones y la opción de compartir vídeo.

El contenido del feed social lo proporcionan las búsquedas que realice cada usuario (lógicamente, el buscador utilizado es Bing), con las que pueden interactuar los contactos.

Por su parte, el vídeo compartido permite ver vídeos (la página está construida en HTML5) con los contactos al mismo tiempo que se mantiene una conversación con ellos. Además, es posible añadir etiquetas a las búsquedas, de modo que es posible volver en cualquier momento a los elementos guardados.

Por ahora no se sabe si Microsoft piensa abrir Socl al público o si permanecerá como proyecto interno de Microsoft Research

Fuente | ABC.es
Imagen | El servicio, todavía en beta, mezcla las búsquedas con características propias de una red social

Lea también
. Microsoft también quiere su red social

miércoles, 16 de noviembre de 2011

El microprocesador cumplió 40 años de historia

La computadora cumplió 30 años, pero su cerebro es aún más viejo. En 1971 aparecía el Intel 4004, creado para formar parte de una calculadora. La historia del "micro", año por año.

El primer microprocesador apareció el 15 de noviembre de 1971: se trataba del Intel 4004, de 4 bits, creado para formar parte de una calculadora que contenía 2.300 transistores y realizaba 60 mil operaciones por segundo.

Este razonador electrónico que desencadenó la revolución electrónica es hoy, cuatro décadas después, el corazón de muchos aparatos de uso cotidiano. Ese dispositivo marcó el punto de partida de una larga historia de desarrollos tecnológicos.

En comparación con el primer microprocesador de Intel, la actual unidad central de procesamiento de datos (CPU, por sus siglas en inglés) de 32 nanómetros (nm) de esa marca se ejecuta con casi 5 mil veces más rapidez y cada transistor utiliza alrededor de 5 mil veces menos energía.

Gracias a los nuevos chips, la creación de contenidos y la velocidad en los juegos es superior al 40 por ciento.

Un poco de historia
En 1965, el cofundador de Intel, Gordon Moore, tuvo una visión de futuro. Su predicción, conocida popularmente como la Ley de Moore, plantea que el número de transistores de un chip se duplica cada dos años.

A medida que los ingredientes de las plataformas y los componentes obtienen más rendimiento, resulta exponencialmente más barato fabricarlos. Por consiguiente, son más abundantes, más potentes y están más integrados en nuestra vida cotidiana, con un poder de cómputo cada vez más alto.

El 15 de Noviembre de 1971, Intel lanzó su primer microprocesador: el Intel 4004. El i4004, un CPU de 4bits, fue el primer microprocesador en un sólo chip, así como el primero disponible comercialmente. Con el Intel 4004 se conseguía situar en placas de 0,25 centímetros cuadrados un circuito integrado que contenía 2.300 transistores.

El objetivo era reunir en un microprocesador todos los elementos necesarios para crear una computadora, a excepción de los dispositivos de entrada y salida (teclado, pantalla, impresora, etc.), imposibles de miniaturizar.

El 4004 fue implementado y diseñado por Federico Faggin entre 1970 y 1971. En cuanto entró a trabajar en Intel, Faggin creó una nueva metodología de "random logic design" con Silicon Gate, que no existía previamente, la cual se utilizó para encajar el microprocesador en un único chip. Esta metodología fue usada en todos los primeros diseños de microprocesadores Intel.

El 4004 era muy efectivo para ser usado en calculadoras y dispositivos de control. Este primer procesador tenía características únicas para su tiempo, como la velocidad del reloj, que sobrepasaba los 100 KHz (kilo hertzio).

El 1 de Abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008 y su principal ventaja frente a otros modelos fue poder acceder a más memoria y procesar 8 bits. La velocidad de su reloj alcanzaba los 740KHz.

Fue el primer microprocesador de 8 bits, implantando con tecnología PMOS, que contaba con 48 instrucciones, podía ejecutar 300 mil operaciones por segundo y direccionaba 16 Kbytes de memoria.

En Abril de 1974, lanzaron el Intel 8080, con una velocidad de reloj que alcanzaba los 2 Mhz. Al año siguiente, aparece en el mercado el primer ordenador personal, de nombre Altair, basado en la microarquitectura del Intel 8080. El procesador de este computador suponía multiplicar por 10 el rendimiento del anterior gracias a sus 2 Mhz de velocidad.

Este microprocesador también direccionaba 8 bits, tenía 78 instrucciones, su velocidad de operaciones era 10 veces mayor que la del 8008 y podía dirigir hasta 64 Kbytes de memoria.

En 1977 salió al mercado el Intel 8085, procesador de 8 bits que era binariamente compatible con el anterior i8080, pero exigía menos soporte de hardware y así permitía sistemas de microordenadores más simples.

En junio de 1978 y 1979 hacen su aparición los microprocesadores 8086 y 8088, que pasaron a formar el IBM PC que salió al mercado en 1981.

Los i8086 e i8088 se basaron en el diseño del Intel 8080 y el Intel 8085 y, de hecho, son compatibles a nivel de ensamblador con el i8080.

Ambos tienen cuatro registros generales de 16 bits, que también pueden ser accedidos como ocho registros de 8 bits, y tienen cuatro registros.

El 1º de Febrero de 1982, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286 (el famoso ordenador "286") con una velocidad entre 6 y 25 Mhz y un diseño mucho más cercano a los actuales microprocesadores.

El 286 tiene el honor de ser el primer microprocesador usado para crear computadoras clones en masa y, gracias al sistema de "licencias cruzadas", apareció el primer fabricante de clónicos "IBM compatible": Compaq, que utilizando este microprocesador empezó a fabricar equipos de escritorio en 1985 y a utilizar los microprocesadores que Intel/IBM sacaban al mercado.

El 16 de octubre de 1985, Intel lanza el i80386, con arquitectura de x86. Fue empleado como la unidad central de proceso de muchas computadoras personales desde mediados de los años 80 hasta principios de los 90.

También es conocido como 386, con una velocidad de reloj entre 16 y 40 Mhz, se destacó principalmente por ser un microprocesador con arquitectura de 32 bits.

En 1988, Intel desarrollaba, un poco tarde, un sistema sencillo para actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor costo. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que aún no había tenido la suficiente aceptación por parte de los usuarios.

El 10 de abril de 1989, aparece el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedad principal, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del coprocesador matemático.

En 1989 lanzaron el i486, que alcanzó velocidades entre 16 y 100 MHz. Eran microprocesadores muy similares a los Intel 80386, con la principal diferencia de que estos últimos tienen un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado incorporados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada.

Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 y un i387 a la misma frecuencia de reloj.

El 22 de marzo del 1993, ve la luz por primera vez el Pentium, también conocido por nombre clave P54C. Estos procesadores, que partían de una velocidad inicial de 60 MHz, lleganban a los 200 MHz, algo que nadie había sido capaz de augurar unos años antes. Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio.

El Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos pipelines de datos de 32 bits cada uno, uno equivalente al i486DX (u) y el otro equivalente al 486SX (u).

Poseía un bus de datos de 64 bits, lo que permitía un acceso de memoria de 64 bits.

El 27 de Marzo de 1995, el procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como había ocurrido con el Pentium en el ámbito doméstico.

El Pentium Pro es la sexta generación de arquitectura x86, que buscaba reemplazar al Intel Pentium en toda gama de aplicaciones, pero luego se centró como chip en el mundo de los servidores y equipos de sobremesa de gama alta, lo que lo convirtió en el primero enfocado para business.

El 7 de marzo de 1997, Intel lanza al mercado el Intel Pentium 2, con arquitectura x86, basado en una versión modificada del núcleo P6, usado por primera vez en el Intel Pentium Pro.

En comparación con su antecesor, este último mejora el rendimiento en la ejecución de código de 16 bits, añade el conjunto de instrucciones MMX y elimina la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste.

Poseía 32 KB de memoria caché de primer nivel, repartida en 16 KB para datos y otros 16 KB para instrucciones.

En 1998, aparece el primer procesador Xeon, con nombre Pentium II Xeon, que utilizaba tanto el chipset 440GX como el 450NX.

El 26 de febrero de 1999, llega el Pentium III, microprocesador de arquitectura i686, con una modificación del Pentium Pro.

Las primeras versiones eran muy similares al Pentium II, pero la diferencia más importante fue la introducción de las instrucciones SSE. Al igual que con el Pentium II, existía una versión Celeron de bajo presupuesto y una versión XEON para quieres necesitaban de gran poder de cómputo.

El 20 de noviembre de 2000, sale a la venta el Pentium 4, microprocesador de séptima generación, basado en la arquitectura X86 y con un diseño completamente nuevo desde el Pentium Pro de 1995.

En marzo de 2003, llega el Intel Pentium M, microprocesador con arquitectura x86 (i686), el cual representa un cambio radical para Intel, ya que no es una versión de bajo consumo del Pentium 4, sino una versión fuertemente modificada del diseño del Pentium III (que a su vez es una modificación del Pentium Pro).

Está optimizado para un consumo de potencia eficiente, una característica vital para ampliar la duración de la batería de las computadoras portátiles.

Funciona con un consumo medio muy bajo y desprende mucho menos calor que los procesadores de computadoras de escritorio.

Los procesadores Intel Pentium M forman parte integral de la plataforma Intel Centrino.

En la primavera de 2005, durante el Intel Developer Forum se introducen los procesadores Pentium D, que consisten básicamente en 2 procesadores Pentium 4 metidos en un solo encapsulado (2 núcleos Prescott para el core Smithfield y 2 nucleos Cedar Mill para el core Presler).

Su proceso de fabricación fue inicialmente de 90 nm y en su segunda generación de 65 nm.

El nombre en clave antes de su lanzamiento era "Smithfield".

El 26 de junio de 2006, Intel anunció la nueva generación: Xeon Dual Core, con tecnología de doble núcleo. Este nuevo procesador brinda un 80% más de rendimiento por vatio y 60% más rápido que la competencia. Además, la nueva generación ofrece más del doble de rendimiento que la generación anterior de servidores basados en el procesador Intel Xeon, capaz de ejecutar aplicaciones de 32 y 64 bits.

La marca Core 3 fue introducida el 27 de julio de 2006 y abarcó las líneas SOLO (un núcleo), DUO (doble núcleo), QUAD (quad-core) y EXTREME (CPU de dos o cuatro núcleos). Los procesadores Intel Core 2 con tecnología vPro (diseñados para negocios) incluyen las ramas de doble núcleo y cuatro núcleos.

La marca Core 2 se refiere a una gama de CPU comerciales de Intel de 64 bits de doble núcleo y CPU 2x2 MCM (módulo multichip) de cuatro núcleos con el conjunto de instrucciones x86 - 64. Estaba basada en el Core Microarchitecture de Intel, derivado del procesador portátil de doble núcleo de 32 bits.

El 2 de noviembre de 2006 aparece Intel Core 2 Quad, una serie de procesadores con 4 núcleos, que eran un 65% más rápidos que los Core 2Duo disponibles anteriormente. Para poder crear este procesador, se tuvo que incluir 2 núcleos Core bajo un mismo empaque y comunicarlos mediante el Bus del Sistema, para así totalizar 4 núcleos reales.

El 2 de marzo de 2008, Intel anuncia la llegada de Intel Atom, nombre de una línea anteriormente denominada Silverthorne / Diamondville. Diseñados para un proceso de frabricación de 45 nm CMOS y destinados a usarse en dispositivos móviles de Internet, ultraportátiles, teléfonos inteligentes y otros de baja potencia y aplicaciones.

En el 2010, Intel anunció los modelos Core i3, i5 e i7 de cuatro núcleos, familia de procesadores que cubren los requerimientos de proceso de todos los niveles de usuario, dependiendo de su perfil y estilo de vida.

Core i3 integra una experiencia informática rápida y flexible. Está equipado con el acelerador Intel para medios gráficos de alta definición, un motor de video de avanzada que ofrece una fluida reproducción de video, así como capacidades 3D de avanzada, lo que implica una solución ideal para gráficos en su uso cotidiano.

Core i5 asigna automáticamente la capacidad de proceso donde más se necesita, lo que le permite al usuario crear videos HD, componer música digital, editar fotos o jugar videojuegos.

Y para los usuarios más experimentados, el Core i7 se presenta como la mejor opción, ya que posee grandes ventajas al momento de usar aplicaciones que requieren mayor performance.

La familia Core 2010 de Intel posee la tecnología Hyper Threading, la cual permite que cada núcleo del procesador trabaje en dos tareas al mismo tiempo, ofreciendo el rendimiento que el usuario necesita para ejecutar varias tareas a la vez.

En tanto, Intel Core i5 e Intel Core i7 integran Turbo Boost, que incrementa de forma automática la velocidad de procesamiento de los núcleos por encima de la frecuencia operativa básica si no se han alcanzado los límites especificados de energía, corriente y temperatura.

En enero de 2011, Intel lanzó la segunda generación de la familia Core, tecnología que posee cambios en la memoria caché, mejorías en el modo Turbo Boost y perfeccionamientos en la propia arquitectura.

Esta nueva familia tiene motor gráfico integrado para aumentar el desempeño de procesamiento y gráficos de un dispositivo al tiempo que mantiene la eficiencia energética. Así provee el perfecto balance entre diseño, performance y durabilidad.

Posee características visuales mejoradas, que se centran en las áreas para las que la mayoría de los usuarios utilizan sus computadores hoy: video en alta definición, 3D, juegos, realización de múltiples tareas al mismo tiempo y redes sociales o uso de multimedia en línea.

Basados en la tecnología de proceso de 32 nanómetros (nm) de Intel, los nuevos chips son la primera microarquitectura "visiblemente inteligente" que combina la tecnología visual y de gráficos 3D con microprocesadores líderes en desempeño en un único chip, sin necesidad de agregar hardware adicional para mejorar el desempeño de juegos u otras tareas de alta exigencia.

Fuente | Infobae.es
Imagen | Procesadores Intel

Lea también
. ¿Cuanto pesa internet?
. Breve historia del CRM
. ¿Que es una moneda virtual y porque importa?
. Ser anónimo en internet una tarea imposible