Cuando los códigos binarios rejuvenecen Ctrl G no es suficiente

Autor: 

Alberto C Toppin
|
07 Agosto 2019
| |
0 Comentarios

Crédito de fotografía: 

tomada de universoabierto.org

Me gusta: 

En noviembre de 1999, los estudios Pixar estrenaron su tercera película de animación. Se trataba de la secuela de Toy Story, donde los juguetes debían rescatar a Woody de un coleccionista que lo había robado. El largometraje fue todo un éxito de taquilla: con un presupuesto de 90 millones de dólares, se recaudaron casi 500.

Sin embargo, durante la producción, Pixar estuvo a punto de que la película le costara el doble, incluso más. En algún momento, alguien ejecutó el comando RM* en las computadoras donde estaban los archivos con los caracteres de los personajes. Todo el trabajo de meses se borró en segundos: Woody, Buzz, Dino, la casa de Andy…

Encima, las copias de seguridad de la propia Pixar eran inservibles: estaban en un punto bastante rezagado de la producción. Que la película se salvara fue todo un milagro: una de las trabajadoras tenía un bebé en casa y, para poder atenderlo y cumplir con su trabajo, había decidido llevarse una copia de la cinta y guardarla en su computadora personal. Sin proponérselo, había sido más efectiva en la preservación digital que los propios mecanismos establecidos por la casa productora.

Algo similar sucedería dos años después, pero con la NASA. El 27 de julio de 2001, Reuters decía que Joseph Miller, un neurobiólogo de la Universidad de Carolina del Sur, había pedido a la agencia espacial estadounidense que comprobara unos datos transmitidos a mediados de los setenta por las sondas espaciales Viking. Los científicos descubrieron entonces que los datos estaban almacenados en cintas informáticas de más de 25 años y no se podían leer por su formato. Además, en la NASA hacía mucho tiempo que se había olvidado ese programa informático o, como diría Miller, “se habían muerto los programadores que lo conocían”.

Lo ocurrido no son más que ejemplos de cuán vulnerable es hoy la producción en entornos digitales ante procedimientos de conservación bastante débiles. Y es solo la punta del iceberg.

Preservar es más que digitalizar

A diferencia de lo que se piensa, la preservación digital es muchísimo más compleja y abarcadora que la simple digitalización de obras. Es como la conservación que se aplica en el mundo analógico para evitar la pérdida de características que vuelven original una obra. Y, como ella, está en un nivel superior a la reproducción en masa.

Según el sitio dpconline.org, los encargados de la preservación digital diseñan estrategias efectivas para asegurar la durabilidad y usabilidad de materiales digitales nuevos. Dichas estrategias deben reducir al mínimo la perdida de datos durante la modificación de los archivos, un verdadero desafío.

Por ejemplo, solamente en la industria cinematográfica, la conservación de todos los datos generados al terminarse una película es un problema. Según el sitio estadounidense digital preservation.org, con todos los componentes digitales de extensión RAW añadidos durante la producción, el contenido asociado a una sola película digital sobrepasa los 3 petabytes, es decir, los tres mil gigas.

Cuando se trata de documentos, imágenes, audios, información geoespacial y hasta programas informáticos, el panorama cambia, pero no tanto. La diversidad de formatos existentes hoy día genera la pregunta de si algunos de ellos, en los próximos 20 años, podrían dejar de existir o, al menos, volverse poco utilizados en comparación a hoy.

Formatos estandarizados para a preservación digital (Foto: tomada de universoabierto.org)

Lo mismo sucede con los medios de almacenamiento de la información: menos de 30 años han bastado para que dispositivos como los disquetes, casetes, discos compactos y hasta los discos duros IDE hayan comenzado a salir del mercado, aun cuando en sus mejores momentos se hablaba de décadas de usabilidad.

Aunque actualmente son muchísimo más frecuentes otras formas de almacenamiento, su desarrollo no va a la par de los medios para producir contenido. Según David Rosenthal, especialista del programa LOCKSS (Lots Of Copies Keep Stuff Safe) de la Universidad de Stanford, la tasa de creación de contenidos a nivel mundial para 2014 era de 60 por ciento anual, mientras que el desarrollo en almacenamiento se expandía cerca de un 25 por ciento cada 12 meses y el presupuesto para centros de datos apenas aumentaba un 2 por ciento cada año.

La diferencia es marcada debido a los patrones de producción: la creación de contenido es muchísimo más descentralizada que la confección de hardware. Solo se equilibra la balanza al abordarse los formatos: con el desarrollo del software libre como alternativa a los programas de licencia, es muchísimo más abierta la forma en que se guarda digitalmente la información, lo que repercute en su perdurabilidad.

Entonces, ¿cómo?

Existen varias técnicas que aseguran la preservación de la información digital, unas más conocidas que otras, y enfocadas al hardware, al software o a ambos. Por ejemplo, según recoge Isabel Álvarez Wong en su ponencia “Un acercamiento a la preservación digital a largo plazo. Algunas experiencias en Cuba”, la preservación de la tecnología busca conservar a largo plazo los medios por los cuales se accede a la información guardada, mientras que la migración se enfoca en superar la obsolescencia programada, tanto de los programas para acceder a los datos como del hardware que utilizan los medios de almacenamiento.

También está la emulación; es decir, la utilización de un software original dentro de otro mucho más reciente –muy usado en el
mundo de los videojuegos para recrear, dentro del entorno de Windows, programas de sistemas ya obsoletos–.

Asimismo, la replicación es otra de las técnicas — la conservación de dos copias de la información en diferentes puntos geográficos — , además de la estandarización — utilizar algún formato estándar para la representación del material digital — , el encapsulado — empaquetar la información que se desea preservar junto con un diccionario de datos (metadatos descriptivos) y mantenerlos en una única localización — .

Lejos de lo que pudiera pensarse, el guardado en la nube como una variante de replicación no es completamente una forma de preservación digital por varias razones. Una de ellas es el grupo de condiciones en las que se hace dicha salva y que, en ocasiones, puede influir negativamente en la conservación de los metadatos de los archivos. Además, cuando el proveedor del almacenamiento sale del mercado, la pérdida de información se hace inminente.

Lo mismo ocurre con sitios webs que han sido modificados sin mantener la base de datos anterior. Y no cualquier sitio web. Según un reporte de la Unesco, con la llegada de George W. Bush a la Casa Blanca, se rehízo el portal en Internet de la presidencia norteamericana y, con la transformación, se esfumaron del acceso público la colección de discursos y comunicaciones oficiales de la administración Clinton. Aunque la Administración Nacional de Archivos y Registros (NARA) conservó gran parte del sitio a lo largo de los años del mandato estadounidense número 42, irremediablemente todos los links externos que conducían a esos contenidos, en lugar de redirigirse a los archivos, se rompieron.

Igual sucefería con las primeras ediciones electrónicas del diario sueco Aftonbladet, que cubrían dos años y medio de la actividad de este medio (desde el 25 de agosto de 1994 hasta el 26 de marzo de 1997) y que, además, no tenían un contenido exactamente igual que el de las ediciones en papel.

Todo parece indicar que la era digital, aunque significa una ruptura con la época analógica, arrastra y se apropia de varios de sus problemas.

0 Comentarios

Añadir nuevo comentario