A
medida que crece el volumen de datos y nuestra demanda de ellos, la necesidad de
transferencias más rápidas y seguras se convierte en un factor crítico para la
evolución tanto de internet como de todas las tecnologías
que dependen de la red de redes. En 2009, se alcanzó una velocidad máxima de
transferencia de 119 gigabits por segundo, estableciendo
así un nuevo récord, pero a mediados de noviembre, dicha marca fue pulverizada
por un equipo especial de investigadores pertenecientes a varias universidades e
institutos. ¿Cuál es el nuevo límite a superar?
186 Gigabits por segundo, algo así como un terabyte cada 43 segundos.
Cuando
uno logra acceso por primera vez a una conexión ADSL de cinco megabits por
segundo, le parece un salto de calidad y velocidad impresionante, pero no
estaría mal contar con un poco más de margen. La razón es sencilla: Estamos
transfiriendo cada vez más datos, la drástica mejora en las tecnologías
multimedia ha incrementado la calidad tanto del audio como del vídeo, hay cada
vez más dispositivos que dependen de la nube para funcionar, y por supuesto,
esta tendencia sólo parece tener espacio para acelerarse. Realizar streaming en
1080p debería ser algo común para cualquier usuario, sin embargo, la velocidad
de conexión sigue siendo uno de los factores limitantes más importantes. La
demanda es cada vez más grande, y son muchos los usuarios que están dispuestos a
pagar por más velocidad. El balón está del lado de los proveedores, y a nivel
global, se podría decir que están decepcionando.
Sin
embargo, tenemos buenas noticias por el lado “científico” de las conexiones de
red, ya que un variado equipo de investigadores provenientes de diferentes
universidades e institutos (Caltech, CERN, U. de Victoria, U. de Michigan,
Florida I.U., CANARIE, UCSD, Universidades Estatales de Rio de Janeiro y São
Paulo, y otros) han logrado establecer una
conexión de alta velocidad entre el Centro de Computación de la
Universidad de Victoria y el Centro de Convenciones del Estado de Washington en
Seattle, separados por poco menos de 120 kilómetros, mientras que durante la
edición 2011 de la conferencia SuperComputing repitieron la operación entre el
puesto de Caltech en la conferencia, y diferentes lugares de los Estados Unidos,
Brasil y Corea del Sur. La conexión contó con un pico máximo de 98 gigabits por
segundo en una dirección, y 88 gigabits por segundo en la dirección opuesta,
alcanzando así un nuevo récord de transferencia de red
“full-duplex” de 186 gigabits por segundo.
A
la hora de calcular equivalencias, los números son escalofriantes. Estamos
hablando de dos millones de gigabytes, o cien mil discos
Blu-ray completos en un día. Llenarías un disco duro de un terabyte en
menos de un minuto, aunque en ese caso no habría disco duro que valga para hacer
frente a semejante velocidad. Además de los múltiples beneficios que podríamos
obtener a nivel casero, un incremento drástico en las velocidades de conexión
también beneficiaría en gran medida al mundo de la ciencia. Sin ir más lejos, el
Gran Colisionador de Hadrones (LHC) ya demandó el proceso y análisis de más de
cien petabytes de datos, un volumen de información que las conexiones actuales
no pueden enfrentar. Se espera que el LHC aumente dicho volumen de datos en mil veces, y que debería
estar al alcance de científicos de todo el mundo en cuestión de horas. 186
gigabits por segundo son el nuevo récord, pero a este ritmo, necesitaremos mucho
más.
ABC