Durée de vie moyenne des supports pour enregistrer l’information

Durée de vie moyenne d’une inscription :

Sur la pierre : 10000 ans,
Sur un parchemin : 1000 ans,
Sur une pellicule : 100 ans,
Sur du papier : 100 ans,
Sur du papier photo : 100 ans,
Sur un vynil : 50 ans,
Sur un cd : 20 ans,
Sur une clé usb : 10 ans,

Du fait de l’oxydation, le cd peut avoir ses données détruites en moins d’un an. Les cd sont des supports fragiles et instable sur le long terme.

15% des cd ont des durées de vie de 1-5 ans.
85% des cd ont des durées de vie de 20 ans.

Les mémoires flash et clé usb ont un nombre de réécritures limités (100 000).

Si on écrit qu’une fois sur la clé pour archiver, on peut avoir une dizaine d’année de durée de vie.

Le papier permanent sans additifs de blanchiment qui ne se dégrade pas avec le temps, et avec de l’encre acrylique stable peut durer plus de cent ans.

Le quartz permettrait de concevoir le support d’archivage numérique le plus stable qu’on ait jamais conçu. Un laser (avec impulsion au milliardième de seconde) permet en effet aujourd’hui de modifier la structure du quartz. Les données sont à l’intérieure du quartz, aucun risque d’usure avec le temps. Elle résiste à une température de 1000°C, à un bain d’acide. Les données pourrait durer de 300 millions d’années à plusieurs milliards d’années. Les capacités sont légèrement supérieure à celle d’un blu-ray.

Au LHC, les données sont inscrites dans des milliers de disque durs. Malgré un réseau d’ordinateur qui est capable de faire 100 millions de calculs à la secondes, le Grand collisionneur de hadrons ne pourra pas analyser toutes les données avant leur destruction par le temps. C’est pourquoi il a été décidé d’utiliser des bandes magnétiques pour préserver les données, elles ont un facteur de fiabilité 1000 fois supérieure à celle des disques dur. La capacité de stockage des bandes magnétiques a des limites, mais elles peuvent atteindre 50 To par cartouche de nos jours.

Chaque jour 145 milliards d’emails sont échangés, 4,5 milliards de requêtes sur Internet, 2,5 trillions d’octets de données sont émises.

Echelle de grandeur basée sur l’octet :

1 lettre : 1 octet,
1 page : 3 Ko,
300 pages : 1 Mo,
1 bibliothèque : 1 Go,
5 bibliothèques : 1 DVD,
6 millions de livres : 1 To (soit 200 DVDs),
Une pile de DVD haute de 200 mètres : 1 péta octets,
Une pile de DVD haute de 1 km : 5 hexa octets, soit toute l’information produite jusqu’en 2003.
Une pile de DVD haute de la terre à la Lune : 1.8 zeta octets, soit toute l’information produite par l’humanité en 2011.
Une pile de DVD haute du soleil jusqu’à mars : 1 yota octets, soit le volume de l’information numérique générée entre 2014 et 2019.

Aucun support ne serait capable de contenir autant d’information de nos jours. D’après les chercheurs, seul l’adn contenu dans les chromosomes du vivant pourrait en théorie stocker toutes ces données. Tout les 2-3 ans, une nouvelle machine qui peut lire l’adn est créée.

Le tout est de pouvoir passer de deux composantes (0 et 1 en numérique) à quatres composantes (ACTG en organique). Soit au premier code qui a vu le jour sur la planète Terre.

On fait la conversion à l’aide d’un programme informatique, puis on crée les brins d’adn artificiels inertes à l’aide d’un processus chimique. C’est ensuite la génétique qui va décoder les brins pour lire l’information, et ce grâce à des séquenceurs.

Pour conserver l’adn, il faut le conserver au froid et au sec pour empêcher les réactions chimiques, le protéger de la lumière.

En Sibérie, les conditions ont permis à la nature de garder intacte une partie de l’adn d’une espèce de chevaux éteinte il y a plus de 700 000 ans. On pense que les échantillons pourraient ainsi durait plus d’un demi million d’années.

Pour l’instant il faut deux semaines pour décrypter une image codée dans de l’adn.

En utilisant cette technique, la totalité des informations de la planète tiendrait alors dans deux mètres cubes.

Le procédé reste expérimental, car sa mise en oeuvre est complexe et onéreuse.

Aujourd’hui c’est le data cloud qui permet de garantir l’existence des données à travers le temps grâce à des répliques de celles-ci et un système pour vérifier la copie conforme des données.

Poster un Commentaire

Soyez le premier à commenter !

Me notifier des
wpDiscuz