Facebook doit payer 9 millions $ pour indications trompeuses sur la confidentialité

 

 

Facebook versera également une somme supplémentaire de 500 000 $ pour les coûts de l’enquête du Bureau.

Facebook devra payer neuf millions de dollars pour avoir donné des indications trompeuses sur la confidentialité aux Canadiens au sujet de la protection des renseignements personnels sur Facebook et Messenger, conclut le Bureau de la concurrence.

Dans un communiqué rendu public mardi, le Bureau explique que le réseau social versera également une somme supplémentaire de 500 000 $ pour les coûts de l’enquête.

Il s’agit d’un règlement enregistré aujourd’hui auprès du Tribunal de la concurrence, et dans le cadre duquel Facebook a accepté de ne pas donner d’indications fausses ou trompeuses à propos de la divulgation de renseignements personnels, précise le Bureau.

Cette décision intervient après une enquête qui a porté entre autres sur les pratiques de Facebook entre août 2012 et juin 2018.

Le Bureau de la concurrence reproche à Facebook d’avoir laissé croire aux utilisateurs qu’ils pouvaient limiter l’accès à leurs renseignements personnels et leur consultation à l’aide de fonctionnalités de protection des renseignements personnels, comme la page générale des « Paramètres de confidentialité », la page « À propos » et le menu de sélection d’audience des publications.

Mais le réseau social n’a pas limité le partage de renseignements personnels de ses utilisateurs auprès de certains développeurs tiers, peut-on lire dans le communiqué.

Cela va du contenu que les utilisateurs avaient publié sur Facebook aux messages échangés sur Messenger.

Pour le Bureau de la concurrence, Facebook a aussi permis à certains développeurs tiers d’accéder aux renseignements personnels d’amis d’utilisateurs une fois que ces derniers avaient installé certaines applications de tierces parties.

 

 

 

 

 

L’ADN est-il l’avenir des mémoires d’ordinateur?

D’ici 2020, entre 21 et 26 milliards d’appareils seront connectés à Internet. Pour réussir à entreposer cette énorme quantité de données, des chercheurs en génomique tentent d’utiliser le meilleur outil offert par la nature : l’ADN.

Des relevés effectués par des chercheurs ou des compagnies, comme IBM ou Google, montrent que, chaque année, de nouveaux records sont établis quant à la quantité de données produites.

La technologie actuelle ne permet pas de régler le problème du stockage d’information, compte tenu de l’explosion des réseaux sociaux et de la vitesse à laquelle du nouveau contenu est mis en ligne.

Comme solution, des scientifiques américains se sont tournés vers l’ADN, l’une des façons les plus compactes de stocker de l’information sur Terre. L’ADN est composé de quatre nucléotides, quatre molécules identifiées à l’aide des lettres A, T, G et C, qui s’agencent entre elles pour encoder toute l’information biologique. Leurs travaux ont été publiés dans la revue Science.

Des chiffres et des lettres

La méthode employée pour passer du virtuel au biologique a déjà été testée dans d’autres études : on associe arbitrairement une lettre de l’ADN à une combinaison de 0 et de 1 qui forment les données informatiques, transformant ainsi le biologique en binaire.

 

Avec cette façon de procéder, les 6 milliards de lettres formant l’ADN humain donnent environ 1,5 gigaoctet de données (un disque Blu-ray contient entre 25 et 50 gigaoctets).

Cela peut paraître peu, mais chaque cellule contient une copie de ce code en son noyau (un noyau cellulaire mesure environ 10 microns). Si on multiplie ce chiffre par les 37 trillions de cellules qui forment un corps humain (37 milliards de milliards), on obtient une quantité de données insensée! Il est donc facile d’envisager que maîtriser l’ADN pour l’informatique réglerait tout problème de stockage actuel.

Un encodage unique, mais coûteux

La méthode employée par les chercheurs s’appelle « encodage par fontaine d’ADN ». Avec cet algorithme, il est possible d’entreposer 215 millions de gigaoctets dans 1 gramme d’ADN.

Ceci est la valeur maximale proposée par leur méthode. L’équipe a toutefois commencé avec un projet plus petit, en encodant plusieurs fichiers pour une valeur de 2,15 mégaoctets.

Ces chercheurs ont d’abord traduit la séquence binaire en séquence d’ADN grâce à leur algorithme. Ils ont ensuite fait synthétiser les brins d’ADN par une compagnie de biotechnologie, qui leur a envoyé le tout par la poste.

Ils ont ensuite reconverti l’ADN en fichiers informatiques, sans qu’aucune erreur ne s’y glisse, ce qui est une première. Rares sont ceux qui ont eu l’occasion de regarder une vidéo sur leur écran d’ordinateur à partir d’un fichier qui, peu de temps auparavant, était stocké dans un agencement de molécules organiques!

Il y a toutefois deux problèmes qui pourraient porter ombrage à cette méthode : son coût et sa vitesse. Il aura fallu 2 minutes 30 et 7000 $ pour encoder un fichier et 9 minutes ainsi que 2000 $ supplémentaires pour le décoder. Il n’est donc pas envisageable que cette technique soit commercialisable sous sa forme actuelle.

Les nouvelles technologies faisant souvent face à des problèmes de coûts, seul le temps nous dira si nous enregistrerons un jour nos fichiers sur des clefs USB à base d’ADN.

 

Source:Radio Canada

 

 

Chaos programmé:Quelqu’un se prépare à détruire l’internet

Le spécialiste de la cyber-sécurité Bruce Schneier a posté un article alarmiste sur son blog, des menaces pèseraient sur les structures de l’internet.

 

Le futur est à craindre
Le futur est à craindre

C’est très sérieux.
C’est LE grand expert de la cybersécurité Bruce Schneier qui l’a écrit sur son blog hier “quelqu’un est en train d’apprendre à détruire Internet” ce sont ses mots.
Quand Bruce Schneier dit quelque chose comme ça, il faut mieux y prêter attention….

Schneier explique que depuis un ou deux ans, les entreprises critiques de l’internet, subissent des attaques précises, calibrées, dont le but semble être de tester leurs défenses, et d’évaluer les moyens nécessaires pour les mettre à bas.

C’est le cas par exemple de Verisign, dont le rapport trimestriel de ce type d’attaques.
Verisgn, c’est l’entreprise américaine qui gère notamment les noms de domaine en .com et .net si Verisign tombe, c’est tout un pan de l’Internet mondial qui disparaît.

Qu’est-ce que ces attaques ont de particulier ?
Schnieier l’explique très bien.

Les attaques les plus courantes sur Internet, sont ce qu’on appelle les attaques en déni de service (en Ddos).

En gros, il s’agit d’empêcher les usagers de se rendre sur le site visé.

Pour ça, même s’il y a des subtilités, le moyen est toujours le même : adresser au site tellement de requêtes qu’il sature et devient inaccessible, c’est ensevelir le site sous les données.

Les attaques en déni de service sont vieilles comme Internet, les hackers y recourent pour faire tomber les sites qu’ils n’aiment pas, les cybercriminels pour obtenir des rançons (car on peut prendre un site en otage).

Il y a toute une industrie de la défense contre les attaques en déni de service, mais, à la base, ça revient toujours à une question de bande passante (c’est-à-dire de débit, pour faire une analogie avec la plomberie).
Si l’attaquant en a plus que le défenseur, il gagne.

Depuis quelques mois donc, les entreprises critiques de l’internet subissent ce genre d’attaques en déni de service, mais elles ont un profil particulier.
Elles portent sur un spectre plus large que d’habitude, et elles durent plus longtemps.
Elles sont plus sophistiquées aussi.
Mais surtout, elles donnent l’impression de tester des choses.

Par exemple, une semaine, une attaque va commencer à un certain niveau, monter en grade, puis s’arrêter.
La semaine suivante, elle va reprendre à ce niveau, puis monter encore.
Comme si elle cherchait l’exact point de rupture.

Et puis ces attaques semblent configurées pour voir les contours des défenses.
A chaque fois, elles utilisent différents points d’entrée en même temps, ce qui est rare, obligeant les entreprises à mobiliser l’ensemble de leurs capacités de défense; à montrer tout ce qu’elles ont à disposition, ce qui n’est jamais bon.

Tout converge donc vers le constat que quelqu’un est bien en train de tester les défenses des entreprises les plus critiques de l’Internet mondial.
Mais qui ?
Schneier ne croit pas à un criminel, un activiste ou chercheur.

Ce genre de méthode passant par le test des infrastructures centrales, ça ressemble beaucoup plus selon lui à un acte d’espionnage ou de renseignement.

Et puis la puissance et l’échelle de temps sur laquelle s’étendent ces attaques désignent un Etat.
Comme si le cyber-commandement d’une armée était en train de calibrer ses armes en cas de cyberguerre.
Ca rappelle à Schneier quand, pendant la guerre froide, les Américains envoyaient dans le ciel soviétique des avions de très haute altitude pour que la défense anti-aérienne soviétique se mette en alarme, et pouvoir donc la cartographier.

Que faire ? Rien, dit Schneier. On ne sait pas d’où ça vient.

Les données qu’il a en sa possession le feraient pencher pour la Chine, et il n’est pas le seul à le penser.
Mais ce type d’attaque permet de masquer le pays d’origine.

La NSA, explique-t-il, qui exerce sur la colonne vertébrale de l’Internet (pour traduire “backbone”) la surveillance la plus approfondie, doit avoir une idée plus précise, mais à moins que les Etats-Unis ne veuillent déclencher une crise diplomatique, nous n’en saurons rien.

Ainsi commence ce John Le Carré au pays des gigabits.