Pirater une voix n’est plus de l’ordre de la science-fiction. Un simple enregistrement d’une minute suffit désormais pour copier la voix de n’importe quel individu et de s’en servir à volonté. Présidents et célébrités comme personnes lambdas ne sont donc pas à l’abri d’être victimes de fausses déclarations. La technologie soulève un grand nombre de questions d’ordre éthique et légal.
S’ils peuvent être à l’origine de canulars hilarants, les logiciels permettant de recréer les voixde personnes existantes peuvent aussi représenter un risque majeur pour les individus. Imaginez par exemple qu’une personne mal-intentionnée se serve de votre voix pour produire un faux témoignage. Comment prouveriez-vous votre innocence ?
Pirater votre voix en une minute chrono
C’est la question que s’est posée Lyrebird. Cette entreprise canadienne a en effet donné naissance à une technologie capable de pirater la voix de n’importe qui sur la base d’un enregistrement d’une minute seulement. Autrement dit dès aujourd’hui, une simple conversation téléphonique suffirait à un pirate pour créer de faux documents audio.
Pour prouver son efficacité, Lyrebird a mis en ligne plusieurs fichiers sur Soundcloud, dans lesquels on peut notamment entendre Barrack Obama, Donald Trump et Hillary Clinton discuter au cours d’une conversation montée de toutes pièces. Selon la société, le logiciel est même capable de reproduire certaines émotions telles que la colère ou la joie. Fascinant et terrifiant.
La prouesse est impressionnante, et ce genre de piratage éclair n’est pas sans rappeler celui de d’Alexandre Korznikov, qui permettait de pirater un compte Windows dans des délais similaires. Pour Lyrebird, cependant, il ne s’agit pas de faciliter la tâche à de potentiels pirates. Au contraire, on peut lire sur son site officiel :
En révélant l’existence de cette technologie et en la rendant disponible, nous souhaitons conjurer l’apparition de tels risques. Nous espérons que le public prendra conscience qu’imiter une voix est devenu possible et que cela doit relativiser à l’avenir la valeur de preuve accordée aux enregistrements audio.
La vocation de Lyrebird est donc avant tout de prévenir le public de l’émergence de ce genre de détournements. Dans un futur très proche, le témoignage audio n’aura peut-être plus la même puissance et utilité qu’aujourd’hui.
De septembre 2012 à novembre 2014,les fuites radioactives conséquentes à l’arrosage continue des réacteurs sont passées de 200 à 450 tonnes d’eau métriques chaque jour.Depuis janvier 2017,tout semble s’aggraver sans possibilité d’en connaître beaucoup plus.Mais depuis l’an passé,les fuites d’informations ont forcé TEPCO à rendre public certaines informations,mais le gouvernement japonais censure tout.
Le niveau des radiations à l’ intérieur d’ un des réacteurs endommagés à la centrale nucléaire de Fukushima a atteint un » inimaginable niveau » selon les experts. Parce que beaucoup de matériel nucléaire de Fukushima a échappé dans l’océan Pacifique, il y a beaucoup de scientifiques qui croient que ce fut la pire catastrophe écologique de l’histoire de l’ humanité, mais la plupart des gens dans la population générale semblent penser que , puisque les médias traditionnels vraiment ne parlent pas à ce sujet plus que tout doit être sous contrôle. Malheureusement, ce n’est pas vrai du tout. En fait, PBS arapporté l’an dernier que « il est inexact de dire que Fukushima est sous contrôle lorsque lesniveaux de radioactivité dans l’océan indiquent des fuites en cours « . Et maintenant , nous venons d’ apprendre que le niveau de rayonnement à l’ intérieur du réacteur 2 est si élevé qu’aucun humain ne pourrait survivre à une simple exposition.
Grues sur la centrale de Fukushima Daiichi en Février 2016. Le processus de démantèlement devrait prendre environ quatre décennies
Selon le Japan Times , le niveau de rayonnement à l’ intérieur de la zone de confinement du réacteur 2 est maintenant estimé à «530 sieverts par heure » …!
Le niveau de rayonnement dans l’enceinte de confinement du réacteur 2 à la centrale de Fukushima n ° 1 (qui est endommagée) a atteint un maximum de 530 sieverts par heure , le plus élevé depuis la crise de « triple core » en Mars 2011,a déclaré Tokyo Electric Power Co. Holdings Inc. .
Tepco a déclaré jeudi ,16 mars 2017 que la lecture de la radioactivité a été prise à l’entrée de l’espace juste en dessous de la cuve sous pression, qui contient le cœur du réacteur.
Le chiffre élevé indique qu’une partie du combustible fondu qui s’est échappé de la cuve sous pression est rendu à proximité.
Photo du réacteur no 2,le 30 janvier 2017
Photo prise par le petit robot sous le réacteur.
Il est difficile de trouver les mots pour exprimer la gravité de tout cela.
Si vous avez été exposé à un niveau de seulement 10 sieverts par heure de rayonnement, cela signifierait une mort presque certaine. Donc , 530 sieverts par heure est tout simplement hors des cartes,hors des normes. Selon le Guardian , cette mesure récente est décrite par les scientifiques comme «inimaginable» …
La lecture récente, décrite par certains experts comme «inimaginable», est beaucoup plus élevé que le précédent record de 73 sieverts une heure dans cette partie du réacteur,il y a peu de temps encore.
Une seule dose d’un sievert est suffisante pour causer la maladie d’irradiation et des nausées; 5 sieverts serait tuer la moitié des personnes exposées dans un délai d’ un mois, et une dose unique de 10 sieverts se révéler fatale en quelques semaines .
« De nouvelles photographies montrent ce qui peut être du combustible nucléaire fondu qui aurait coulé sous l’un des réacteurs (épaves) de Fukushima , un jalon potentiel dans la recherche et la récupération du carburant près de six ans après avoir été perdu dans l’une des pires catastrophes atomiques dans l’histoire.
Tokyo Electric Power Co. Holdings Inc., la plus grande entreprise de services du Japon, a publié des images lundi montrant une grille sous le réacteur No 2 de Fukushima Dai-Ichi recouvert de résidu noir. La société, mieux connu comme Tepco, a envoyé une espèce de robot développé spécialement pour investiguer à Fukushima pour déterminer la température et de la radioactivité du résidu. »
Si cela ne suffit pas à vous faire peur, une source de nouvelles japonaise rapporte que ce combustible nucléaire fondu « a depuis été en contact avec de l’ eau souterraine qui coule du côté de la montagne » ...
Le combustible fondu a depuis été en contact avec de l’ eau souterraine qui coule du côté de la montagne, la production d’ eau contaminés par la radioactivité tous les jours . Afin de démanteler le réacteur, il est nécessaire de retirer le combustible fondu, mais des niveaux élevés de rayonnement à l’intérieur du réacteur avait entravé le travail pour localiser les débris fondu.
Si cette catastrophe aurait été seulement limitée au Japon, tout l’hémisphère nord ne serait pas en danger.
Mais ce n’est pas le cas.
La plupart de la contamination nucléaire de Fukushima a fini dans l’océan Pacifique, et de là il a été littéralement pris dans le reste de la planète. Ce qui suit a été signalé par PBS…
Plus de 80 pour cent de la radioactivité des réacteurs endommagés a fini dans le Pacifique – bien plus que le niveau atteint à Tchernobyl ou à Three Mile Island. De cette somme , une petite fraction est actuellement sur le fond – le reste a été emporté par le courant Kuroshio, une version du Pacifique ouest du Gulf Stream, et porté à la mer où il mélangé avec (et a été dilué par) l’énorme volume de le Pacifique Nord.
Nous ne savons pas s’il y a une connexion, mais il est très intéressant de noter que la pêche le long de la côte ouest des États-Unis ne parviennent pas à trouver la cause d’une diminution spectaculaire des populations de poissons. Il suffit de consulter l’extrait suivant d’une histoire qui a été publié le 18 Janvier 2017 …
18 janvier 2017 Le secrétaire américain du Commerce Penny Pritzker , a déterminé aujourd’hui que la pêche commerciale pour le saumon et crabe en Alaska, en Californie et à Washington.
Ces dernières années, chacune de ces pêcheries ont connu defortes baisses soudaines et inattendues de la biomasse des stocks de poissons ou perte d’accès en raison des conditions inhabituelles de l’ océan et du climat. Cette décision permet auxcommunautés de pêche de demander l’ aide de secours aux sinistrés du Congrès.
En Alaska:
Golfe de l’Alaska pêche au saumon rose (2016)
En Californie:
Californie dormeur et de la pêche au crabe (2015-2016)
pêche au saumon yurok tribu Klamath River Chinook (2016)
A Washington:
Fleuve Fraser tribu Makah et du Bas-Elwha Klallam tribu pêche du saumon rouge (2014)
Grays Harbor et Willapa Bay non-traité pêche au saumon coho (2015)
Nisqually Indian Tribe, Jamestown S’Klallam tribu, Port Gamble S’Klallam Tribe et Squaxin Island Tribe Sud Puget pêche au saumon du son (2015)
Quinault Indian Nation Grays Harbor et Queets rivière pêche au saumon coho (2015)
pêche au crabe dormeur tribu Quileute (2015-2016)
pêche à la traîne du saumon océan (2016)
Le secrétaire américain du Commerce Penny Pritzker a déterminé aujourd’hui, qu’il y a des échecs de la pêche commerciale pour neuf saumon et crabe pêche en Alaska, en Californie et à Washington.
Au cours des dernières années, chacune de ces pêcheries ont connu soudaines et inattendues des diminutions importantes des stocks de poissons de la biomasse ou la perte d’accès en raison des conditions océaniques et climatiques inhabituelles. Cette décision permet aux communautés de pêche de chercher catastrophe une aide d’urgence du Congrès.
Les choses sont particulièrement mauvaises en Alaska , et les biologistes sont « perplexes » sur les raisons pour lesquelles cela pourrait se produire …
En 2016, les récoltes de saumon rose à Kodiak, Prince William Sounds, Chignik et Cook Inlet sont venus terriblement sous les prévisions et les biologistes perplexes quant à pourquoi.
La valeur estimée de 2016 courriers de Kodiak était de 2,21 millions $, comparativement à une moyenne de cinq ans de 14,64 millions $, et à Prince William Sound la valeur ex-navire était de 6,6 millions $, beaucoup moins que la moyenne de 44 millions $ sur cinq ans . La récolte totale de l’État était la plus faible depuis la fin des années 1970.
Bien que les biologistes de l’Etat ne sont pas prêts à déclarer une cause de la performance du saumon rose pauvres, le communiqué de presse du département du Commerce a attribué les catastrophes aux «conditions océaniques et climatiques inhabituelles. »
Plus au sud, on rapportait le mois dernier que des millions de sardines mortes se sont échouées sur les côtes du Chili.
Je pourrais continuer et avec beaucoup d’autres exemples de ce genre, mais nous espérons que vous retiendrez le point.
Quelque chose de vraiment étrange se passe dans le Pacifique, et beaucoup de gens croient qu’il y a un lien vers Fukushima.
Pas trop longtemps, je l’ ai écrit sur la façon dont l’élite de la Silicon Valley sont à se « préparer fiévreusement », mais la vérité est que nous devrions tous l’être. Notre planète est de plus en plus instable, et la catastrophe nucléaire de Fukushima est juste un morceau du puzzle.
Mais ic’est certainement un élément très important. Les matières nucléaires de Fukushima entrent continuellement dans la chaîne alimentaire, et une fois que les matières nucléaires pénètre dans notre corps , il va lentement irradier nos organes pour les années à venir. Ce qui suit est un extrait d’un article d’ opinion absolument remarquable par Helen Caldicott qui a été publié dans le Guardian …
Le rayonnement interne, d’autre part, émane d’éléments radioactifs qui pénètrent dans l’organisme par inhalation, ingestion ou absorption cutanée.Les radionucléides dangereux tels que l’ iode-131, le césium 137 et d’ autres isotopes actuellement libérés dans la mer et l’ air autour de Fukushima sont bio-concentré à chaque étape de diverses chaînes alimentaires (par exemple dans les algues, crustacés, petits poissons, gros poissons, puis les humains ; ou le sol, l’ herbe, la viande et le lait de vache, puis les humains). Après leur entrée dans le corps, ces éléments – appelés émetteurs internes – migrent vers des organes spécifiques tels que la thyroïde, le foie, les os et le cerveau, où ils rayonnent en continu sur de petites quantités de cellules avec de fortes doses de radiations alpha, bêta et / ou gamma, et pendant de nombreuses années, peut induire la réplication cellulaire incontrôlée – qui est, le cancer . En outre, la plupart des nucléides restent radioactifs dans l’environnement pour des générations, et , finalement , causeront l’ incidence du cancer et des maladies génétiques qui ont augmenté au fil du temps.
Vous commencez à comprendre la gravité de la situation?
Malheureusement, cette crise va être avec nous pour un très, très longtemps.
Selon un journal imp en ligne, , ils ne sont même pas surs vont commencer à extraire le combustible nucléaire fondu de ces réacteurs jusqu’en 2021, et il est projeté que le nettoyage général « peut prendre aussi longtemps que 40 ans» …
La mise hors service des réacteurs coûtera ¥ 8000000000000 (70,4 G $), selon une estimation en Décembre 2016 du Ministère de l’Economie, du Commerce et de l’Industrie. Le retrait du carburant radioactif est l’une des étapes les plus importantes dans un nettoyage qui peut prendre aussi longtemps que 40 ans.
La nature sans précédent de la catastrophe de Fukushima signifie que Tepco fonde ses efforts sur la technologie pas encore inventé pour enlever le combustible fondu sur les réacteurs.
La société cherche à se décider d’une procédure de retrait de carburant pour le premier réacteur au cours de l’exercice financier se terminant Mars 2019, et de commencer à extraire le combustible en 2021.
Beaucoup de gens qui finissent par mourir à la suite de cette crise ne pourront jamais savoir même que c’ était Fukushima qui a causé leur mort.
Personnellement, je suis convaincu que ce soit la plus grande crise de l’environnement que l’humanité ait jamais connu, et si la dernière lecture du réacteur 2 est une indication, les choses a pris une tournure très sérieuse pour le pire.
dispersion océanique de césium radioactif dérivé de Fukushima : un examen
Introduction
Le 11 Mars 2011, le Grand Est du Japon Tremblement de terre ( Mw 9.0) a eu lieu à la limite de la plaque au large de la côte de Tohoku, le nord du Japon. Un énorme tsunami a été généré et a causé 15 729 morts et 4539 disparus dans les régions Hokkaido, Tohoku et Kanto (L’Agence nationale de la police, en date du 24 Août 2011). Des enquêtes préliminaires ont signalé des vagues du tsunami avec des hauteurs de roulage à haut excédant 30 m (Mori et al ., 2011 ). Le tsunami a également frappé les sites de Fukushima Dai-ichi nucléaire Power Plant (PPPN) situé à 37˚25’N, 141˚02’E, et une perte d’énergie électrique à FNPP a donné lieu à des réacteurs surchauffés et desexplosions d’hydrogène. Les matières radioactives ont ensuite été libérés dans l’océan par les retombées atmosphériques (comme les aérosols et les précipitations) et que les rejets directs (rejets contrôlés liés aux questions de sécurité au FNPP), ainsi que des fuites non contrôlée de l’eau de refroidissement fortement contaminé (Buesseler et al ., 2011 , Chino et al ,. 2011 , Takemura et al ., 2011 ). Ce rejet accidentel de radionucléides anthropiques (principalement l’ iode 131, le césium-134 et -137, 131 I, 134 Cs et 137 Cs) ont donné lieu à desaugmentations sévères de ces radionucléides dans les produits de la pêche dans les zones côtières de Fukushima et les préfectures adjacentes (Buesseler, 2012 , Yoshida et Kanda, 2012 , Wada et al ., 2013 ; et Nakata Sugisaki,2015 ). En raison de sa demi-vie relativement longue (2,07 ans pour les 134 Cs et 30,07 ans pour les 137 Cs), l’évaluation de ces isotopes radioactifs Cs dans le milieu marin est important pour tenir compte des risques pour les écosystèmes marins et la santé publique par la consommation des produits de la pêche . En général, le césium est un élément conservateur et se produit principalement dans la phase dissoute dans le milieu marin. La concentration de césium radioactif dans les organismes marins est fortement affectée par sa concentration dans l’eau de mer environnante. En fait, les changements temporels des concentrations radioactives Cs de nombreuses espèces de poissons pélagiques dans la zone côtière près de Fukushima et les préfectures voisines ont été associées à celles de l’ eau de mer après l’accident FNPP (par exemple, Wada et al ,. 2013 , Takagi et al ,. 2015 ; Morita et al ., données non publiées). Kaeriyama et al . ( 2015 ) et Morita et al . données non publiées ont révélé les changements temporels pris du retard dans le temps en Cs radioactif dans les organismes (zooplanctons et Saury Pacifique) et l’ eau de mer en régime non stationnaire après l’accident FNPP, et a montré que avaient été élevés par rapport aux taux de concentration de ces organismes avec les avant l’accident FNPP. En ce qui concerne zooplanctons, Baumann et al . ( 2015 ) ont examiné la possible absorption de Cs radioactif Fukushima-dérivé de phytoplancton dominé les particules en suspension. En conséquence, Cs radioactif serait transféré au niveau trophique supérieur non seulement par l’ eau de mer environnante , mais aussi par des interactions proies-prédateurs dans l’écosystème pélagique. Shigenobu et al . ( 2014 ) ont rapporté les concentrations radioactives Cs de graisse greenling ( Hexagrammos otakii ) capturés au large de la côte de la préfecture de Fukushima, et fait état de deux spécimens de valeurs aberrantes pris en Août 2012 et mai 2013 , qui avaient ambigüe élevées 137concentrations Cs de plus de 1000 Bq / kg humide. Analyse de probabilité a indiqué que les deux morues du gras de valeurs aberrantes avaient migré du port de FNPP. Dans le port de FNPP, extrêmement élevées 137concentrations Cs ont été signalées dans le sébaste japonais ( Sebastes cheni ), hakeling brun ( Physiculus maximowiczi ) et de la graisse greenling ( H. otakii ) pris en Janvier et Février 2013 (Fujimoto et al ., 2015 ). La concentration maximale de 137 Cs (129 kBq / kg par voie humide) a été détectée à partir de matières grasses Lesourcil. Wada et al . ( 2013 ) avec le corrigendum (Wada et al ., 2014 ) a résumé les résultats de la surveillance des concentrations radioactives Cs dans les produits de la pêche de la préfecture de Fukushima et a révélé lestendances de séries chronologiques. Des tendances claires comprennent une diminution plus lente de Cs radioactif dans les poissons démersaux par rapport aux poissons pélagiques, ainsi que l’ hétérogénéité spatiale; spécimens prélevés dans la zone sud de FNPP avaient tendance à avoir des concentrations plus élevées de Cs radioactif que ceux qui sont pris dans la zone nord de FNPP. Sohtome et al . ( 2014 ) ont rapporté les tendances au cours du temps de la concentration de Cs radioactif chez les invertébrés dans le réseau alimentaire benthique côtière près de la PPPN. La différence de tendance à la baisse observée dans les organismes et les concentrations de Cs radioactif dans certains des oursins ( Echinocardium cordatum et Glyptocidaris crenularis ) ont été clairement affecté par les sédiments contaminés dans leur prises tube digestif.
Ce document met l’ accent sur le Cs radioactif dans l’ eau de mer et résume les estimations du montant total des libérés Cs radioactifs du site FNPP, les changements spatio-temporelles des concentrations de 134 Cs et 137 Cs non seulement au large de la côte de Fukushima et les préfectures voisines, mais également dans le Pacifique Nord et des mers adjacentes telles que la mer du Japon, mer de Chine orientale, en fonction des résultats de mesure et des modèles de simulation publiés pendant 4 ans depuis l’accident FNPP.
Montant total de Césium radioactif FNPP-Libéré
Informations sur le montant total de l’radioactif libéré FNPP-Cs dans le Pacifique Nord est l’ information essentielle pour permettre un suivi et une gestion efficace des ressources. Cependant, en dépit de son importance, l’estimation des dépôts atmosphériques est complexe en raison du manque de données d’ observation de l’environnement océanique. Les rapports d’activité de 134 Cs / 137 Cs, désintégration corrigé Mars-Avril 2011, ont été signalés presque 1,0 pour l’ensemble du Pacifique Nord (par exemple, Buesseler et al ,. 2011 , 2012 , Kaeriyama et al ,. 2014 ). Ce ratio signifie une quantité équivalente de 134 Cs et 137 Cs a été libéré dans l’océan.En vertu de la limitation des données concernant non seulement la quantité de Cs radioactif dans les aérosols ,mais aussi sur les précipitations dans le Pacifique Nord, l’ estimation des dépôts atmosphériques reste une source d’incertitude considérable (5-15 PBq de 134 Cs et 137 Cs, 1 PBq = 10 15 Bq, Tableau 1 ). En revanche, le rejet direct des radioactifs Cs ( 134 Cs et 137 Cs) dans l’océan comme une fuite incontrôlée de l’eau de refroidissement fortement contaminée est bien estimée comme approximation de la valeur de 3,5 PBq, à l’exception de Bailly du Bois et al . ( 2012 ) et Charette et al . ( 2013 ) (tableau 1 ). Dietze et Kriest ( 2012 ) ont discuté des surestimations possibles par Bailly du Bois et al . ( 2012 ) en raison de problèmes méthodologiques. Charette et al . ( 2013 ) ontestimé l’inventaire de rejet direct à partir des données d’ observation de Cs radioactif avec des isotopes du radium en mai-Juin 2011, et aucun dépôt atmosphérique a été pris en charge. Leurs estimations des rejets directs peuvent être inclus dans le dépôt atmosphérique. Tsumune et al . ( 2012 ) ont montré clairement que les rejets directs ontcommencé le 26 Mars 2011 en utilisant 131 I / 137 rapports d’activité Cs, qui variait beaucoup plus avant le 26 Mars 2011 , lorsque le dépôt atmosphérique est la principale source. Les estimations les plus récentes ont révélé que 3-4 PBq de 134 Cs et 137 Cs ont été directement rejetés dans l’océan et 12-15 PBq de 134 Cs et 137 Cs ont été déposés sur l’eau de mer de surface dans le Pacifique Nord (Aoyama et al ., 2015a ).
Vue schématique du système actuel: (a) dans le Pacifique Nord et (b) autour des îles japonaises. Les lignes continues indiquent le courant de surface et les lignes en pointillés indiquent la circulation des eaux de mode. FNPP: Fukushima Dai-ichi centrale nucléaire; STMW: subtropicale mode eau; CMW: Mode Central Water. Sur la base de Kumamoto et al . ( 2014 ); Oka et al . ( 2011 , 2015 ); Talley ( 1993 ) et Yasuda ( 2003 ) [figure de couleur peut être consulté à wileyonlinelibrary.com ].
Ce document met l’accent sur le Cs radioactif dans l’eau de mer et résume les estimations du montant total des libérés Cs radioactifs du site FNPP, les changements spatio-temporelles dans les concentrations de 134Cs et 137Cs non seulement au large de la côte de Fukushima et les préfectures voisines, mais aussi dans le Pacifique Nord et des mers adjacentes telles que la mer du Japon, mer de Chine orientale, en fonction des résultats de mesure et des modèles de simulation publiés pendant 4 ans depuis l’accident FNPP.
Cette revue résume les plus de 70 articles publiés au cours des 4 années écoulées depuis l’accident de la centrale nucléaire de Fukushima Dai-ichi qui a eu lieu le 11 Mars 2011, et détaille le modèle de dispersion radioactive de césium dans les mers du Pacifique Nord et adjacentes. La quantité totale de césium radioactif de Fukushima dérivé libéré dans le Pacifique Nord par dépôt atmosphérique et rejet direct, des variations spatio-temporelles de la côte du Pacifique autour du lieu de l’accident, et les niveaux de concentration de césium radioactif autour des îles japonaises, non seulement le Pacifique côte mais aussi dans les mers adjacentes, comme la mer du Japon, mer de Chine orientale sont résumées. Sur la base des données d’observation obtenues principalement pendant 2 ans depuis l’accident, et les résultats de la simulation, la dispersion océanique de césium radioactif dans toute la région du Pacifique Nord est décrit. Le césium radioactif dérivé Fukushima-est dispersé sous forme de l’eau de surface et étendue sur le côté est du Pacifique Nord en 2014, et a également été observée par une intrusion vers le sud jusqu’à subsurface eaux comme subtropicale mode eau et le mode Eau Central. Le mouvement de césium radioactif lié à l’eau de mode est important en termes de circulation de césium dans l’intérieur de l’océan. Certaines nouvelles technologies et techniques relatives à la surveillance d’urgence de la radioactivité dans l’environnement de l’océan sont également signalés, dont l’efficacité a été démontrée par l’utilisation par rapport à l’accident de Fukushima.
ANNEXE2
DEVANT L’AMPLEUR DU DANGER,LE GOUVERNEMENT JAPONAIS ORDONNE UN PLAN D’ÉVACUATION COMPLET
Les zones à évacuer:on parle de plus de 40 millions de personnes
Sur les 11 municipalités de la préfecture de Fukushima qui sont entrées sous les ordres d’évacuation après la centrale de Fukushima 2011 N ° 1 effondrements de centrales nucléaires, cinq ne disposent pas de plans d’évacuation en cas d’accident nucléaire se produit à nouveau, même si d’interdiction d’entrée des commandes sont progressivement levées.
Le gouvernement central demande des municipalités locales situées à proximité des centrales nucléaires à élaborer des plans d’évacuation en cas d’urgence nucléaire. Selon la politique du gouvernement central, les gouvernements locaux devraient donner des ordres d’évacuation immédiate aux résidents vivant à moins de 5 kilomètres d’une installation en cas d’une « urgence à grande échelle » – situations, y compris la perte de puissance à refroidissement des réacteurs nucléaires.
En règle générale, ceux qui vivent entre 5 et 30 kilomètres d’une usine font l’objet d’une évacuation à l’intérieur, et quand une dose de rayonnement de 20 microsieverts par heure est détectée, l’évacuation devrait être achevée dans un délai d’une semaine. L’évacuation immédiate est recommandée lorsque la dose atteint 500 microsieverts par heure.
Un représentant du village de Katsurao, dont les habitants ont commencé à retourner, dit Shimbun Mainichi que le gouvernement municipal n’a pas créé son plan d’évacuation, car « il n’y a que deux fonctionnaires en charge de la question. » Le fonctionnaire a ajouté: « Nous ne facturons « t ont des connaissances spécialisées (sur les évacuations nucléaires) et nous ne pouvons pas le manipuler avec tous les autres travaux que nous devons faire.Ni l’État ni le gouvernement Fukushima Préfectoral nous donne des conseils « .
Un responsable du village de Iitate, où l’ordre d’évacuation sera levée à la fin de Mars, a déclaré en plus d’une pénurie de main-d’œuvre, « il est difficile de faire un plan avant d’examiner le nombre de résidents reviendront. » La ville de Tamura , dont les habitants ont commencé à revenir, et les villes de Futaba et Okuma, où il reste inconnu alors que les résidents seront en mesure de revenir, ne pas les plans d’évacuation.
Pendant ce temps, les villes de Namie et Tomioka ont tracé leurs plans, qui prennent le principe de base d’évacuer tous les habitants de la ville en cas d’une urgence à grande échelle – mesure plus drastique que la politique du gouvernement central exige – dire que juste après la politique d’évacuation de l’Etat ne pas protéger la sécurité de leurs résidents. Namie Le maire Tamotsu Baba dit au Mainichi, « Les résidents ne croient pas qu’ils seraient en sécurité si elles restent à l’intérieur d’un bâtiment. »
En ce qui concerne les plans d’évacuation locaux, une équipe de soutien aux victimes des accidents nucléaires au Cabinet Office souligne que, si ces plans ne sont pas obligation pour l’Etat de lever les ordres d’évacuation, les gouvernements locaux devraient préparer des mesures de prévention des catastrophes.
La centrale nucléaire de Fukushima frappé n ° 1 est différent des autres centrales nucléaires dans le pays que les travaux de démantèlement est en cours pour l’ensemble de ses six réacteurs. Dans le même temps, une route rugueuse est prévue pour le projet d’enlever combustible fondu, et la dose de rayonnement à l’intérieur de l’heure estimée réacteur n ° 2 est jusqu’à 650 sieverts.
Selon un sondage d’opinion par l’Agence pour la reconstruction ciblant les habitants de la ville de Tamura, 61,5 pour cent de ceux qui ont dit qu’ils voulaient vivre dans d’autres municipalités que Tamura UCTE mentionne sur les travaux de démantèlement et de gestion de la centrale nucléaire comme raisons de ne pas vouloir venir arrière.
Hirotada Hirose, professeur émérite à l’Université chrétienne de Tokyo et un expert en matière de prévention des catastrophes nucléaires, a déclaré: « L’état du combustible nucléaire fondu (à la centrale de Fukushima) est inconnue et les répliques sismiques continuent encore dans la préfecture de Fukushima. Il est un problème que les ordres d’évacuation sont levées tandis que les gouvernements locaux ne sont pas venus avec leurs plans d’évacuation « .
ANNEXE 3
LA BANALISATION ET L’EXPORTATION DU PROBLÈME
Au Japon et à Fukushima ,on médite sur le recyclage du sol pour les parcs publics et espaces verts
Les travailleurs se déplacent de grands sacs en plastique noir contenant de la terre irradiée. Fukushima préfecture, près de la centrale nucléaire de Fukushima Daiichi.
Le sol de la préfecture de Fukushima peut être utilisé comme site d’enfouissement pour la création de « espaces verts » au Japon, un groupe gouvernemental a proposé, face à un potentiel réaction du public sur les craintes d’exposition aux radiations résiduelles de la terre décontaminée.
Le comité consultatif du ministère de l’ Environnement a proposé lundi la réutilisation du sol qui a été contaminé lors de la crise nucléaire de Fukushima de 2011 dans le cadre des décharges futures désignées pour un usage public, que Kyodo News a rapporté .
Dans sa proposition, le groupe environnemental évité ouvertement en utilisant le mot « parc » et au lieu dit « espace vert », apparemment pour éviter un tollé général prématurée, Mainichi Shimbun.
Suite à une enquête de la prise de nouvelles, le ministère de l’Environnement a précisé que « les parcs sont inclus dans l’espace vert. »
En plus de décontaminer et recycler la terre contaminée pour les nouveaux parcs, le ministère a également insisté sur la nécessité de créer une nouvelle organisation qui sera chargée de gagner la confiance du public sur les perspectives de ces modes de recyclage.
Pour calmer les inquiétudes du public immédiat, le groupe a déclaré que le sol décontaminé sera utilisé en dehors des zones résidentielles et sera couverte d’un niveau séparé de la végétation pour répondre aux directives du gouvernement approuvé l’année dernière.
En Juin l’année dernière, le ministère de l’Environnement a décidé de réutiliser le sol contaminé avec une concentration de césium radioactif entre 5 000 à 8 000 becquerels par kilogramme pour les travaux publics comme les routes dans tout le pays et les banques de marée.
En vertu de ces lignes directrices, qui peuvent désormais être étendus à utiliser pour les parcs, le sol contaminé doit être recouvert de terre propre, de béton ou d’autres matériaux.
Une telle décharge, le gouvernement a dit à l’époque, ne causera pas de mal aux résidents à proximité car ils souffriront une exposition inférieure à 0,01 mSv par an après la construction est terminée.
La centrale nucléaire de Fukushima Daiichi a subi une défaillance panne et ultérieure de ses systèmes de refroidissement en Mars 2011, quand il a été frappé par un tremblement de terre et un tsunami meurtrier qui a frappé le centre, crachant le rayonnement et forçant 160.000 personnes à fuir leurs maisons. ont été touchés trois des six réacteurs de la centrale par des effondrements, ce qui rend la catastrophe nucléaire de Fukushima la plus grave depuis la catastrophe de Tchernobyl en 1986.
Gouv propose la réutilisation du sol décontaminé sur la terre verte de Fukushima
Le ministère de l’Environnement a proposé lundi la réutilisation du sol décontaminé de la préfecture de Fukushima catastrophe a frappé les sites d’enfouissement pour les parcs et espaces verts.
Lors d’une réunion d’un comité consultatif, le ministère a également appelé à lancer une nouvelle organisation pour élaborer des plans sur la façon de gagner la compréhension du public au sujet de la réutilisation des sols décontaminés, les responsables du ministère.
Les propositions viennent à un moment où la préfecture de Fukushima fait face à une pénurie de sol en raison des travaux de décontamination à la suite de la fusion nucléaire 2011.
Le pachyderme a été tué par des braconniers. Désormais, il ne reste plus que 25 éléphants « aux défenses géantes » dans le monde.
La majesté de ces animaux incompables sera chose du passé d’ici peu. Les braconniers sont des exterminateurs capitalistes sans scrupule qui ne méritent que la peine de mort.
Un des plus vieux et plus grands éléphants d’Afrique a été tué par des braconniers dans un parc du sud du Kenya, d’après une organisation de protection de la faune sauvage, soulignant qu’il ne reste désormais plus que 25 pachydermes « aux défenses géantes » dans le monde.
Flèche empoisonnée.Satao II, nommé d’après un autre éléphant géant tué en 2014, a été retrouvé mort lundi dans le parc national de Tsavo, a indiqué Richard Moller, de l’organisation Tsavo Trust. Il suspecte une flèche empoisonnée à l’origine de la mort de l’animal ; une technique appréciée des braconniers car silencieuse.
« Heureusement, grâce au travail que nous réalisons en collaboration avec le Service kényan de la faune sauvage (KWS), nous avons trouvé la carcasse avant que les braconniers ne puissent lui arracher son ivoire », a-t-il précisé, ajoutant que deux braconniers présumés avaient été arrêtés dans cette affaire.
100 kilos de défenses. Âgé d’environ 50 ans, Satao II était doté de deux défenses pesant plus de 50 kilos chacune, et qui étaient tellement longues qu’elles touchaient pratiquement le sol. « Il avait survécu à de nombreuses sécheresses et probablement à d’autres tentatives de braconnage », a regretté Richard Moller.
Il ne reste que 15 éléphants identiques au Kenya.La mort de Satao II signifie qu’il ne reste plus que 25 éléphants dotés de telles défenses à travers le monde, dont 15 au Kenya, a-t-il ajouté. « Ce sont des icônes, de véritables ambassadeurs des éléphants ».
Un kilo de défenses d’éléphant vendu 2.000 euros. Les défenses, entre autres parties du corps des éléphants, sont très utilisées en médecine traditionnelle au Vietnam. Elles sont utilisées, comme en Chine, pour faire des objets ou comme porte-bonheur. Le Vietnam a interdit le commerce de l’ivoire en 1992, mais le marché noir reste très actif. Un kilogramme de défenses d’éléphant s’y vend plus de 2.000 euros. Début décembre 2015, en France, les douaniers de l’aéroport de Roissy ont découvert dans les bagages d’un couple vietnamien venant d’Angola 95 kilos d’ivoire, une « saisie record » chez des voyageurs. Jusqu’à 50.000 éléphants sont tués par an en raison du braconnage de l’ivoire. La population d’éléphants d’Afrique est passée de 550.000 bêtes en 2006 à 470.000 aujourd’hui.
Tués pour leurs défenses en ivoire, qui alimentent principalement le marché asiatique, les éléphants sont décimés par le braconnage. Et leur protection, notamment par des rangers de mieux en mieux armés, est compliquée par l’immensité des zones à surveiller.
Jusqu’à 7.000 euros le kilo. La Côte d’Ivoire a lancé à la mi-avril 2016, une opération de protection du Parc national du Mont Peko, dans l’ouest du pays, qui abrite les derniers éléphants nains, une espèce fortement menacée par la déforestation, du fait notamment de la cacaoculture. Le commerce illégal d’ivoire est la troisième forme de trafic le plus rentable après le trafic de stupéfiants et d’armes. Il est alimenté par la demande en Asie et au Moyen-Orient, où les défenses d’éléphants sont utilisées dans la médecine traditionnelle et en ornementation. Il peut être revendu jusqu’à 7.000 euros le kilo. Il reste aujourd’hui environ 450.000 éléphants sur le continent africain, et on estime à plus de 35.000 le nombre de ces animaux tués chaque année. Leur survie est menacée par le braconnage aussi bien que par l’expansion démographique et l’urbanisation galopante qui empiète sur l’habitat naturel.
La population des éléphants d’Afrique au plus bas depuis 25 ans
Plus de 100.000 éléphants de moins en dix ans. Selon l’Union internationale pour la conservation de la nature (UICN), la population des éléphants d’Afrique vient d’enregistrer sa plus importante chute depuis 25 ans: le continent compte environ 415.000 éléphants, soit 111.000 de moins que lors de la dernière décennie. Et le massacre continue au rythme vertigineux d’environ 30.000 éléphants par an. Sur le dernier mois écoulé, deux rangers kényans ont été tués par des braconniers, dont un samedi à Tsavo, selon le KWS.
Les braconnage et la disparition des zones naturelles d’habitation est en cause.
La population des éléphants d’Afrique est au plus bas depuis 25 ans, principalement en raison du braconnage, selon un rapport de l’Union internationale pour la conservation de la nature publié dimanche.
Une forte hausse du braconnage. L’Afrique compte environ 415.000 éléphants, soit 111.000 de moins que lors de la dernière décennie, selon ce rapport basé sur 275 mesures à travers le continent. « La forte hausse du braconnage, qui a débuté il y a une dizaine d’années, est la principale cause du déclin » de la population d’éléphants, explique l’UICN dans un communiqué. Les braconniers chassent les éléphants pour revendre à prix d’or leurs défenses en ivoire, principalement sur les marchés asiatiques.
Un rapport alarmant. La disparition croissante des zones naturelles d’habitation des pachydermes menace aussi l’espèce, précise l’UICN. Ce rapport alarmant a été divulgué devant les délégués de la CITES, la Convention internationale sur le commerce d’espèces sauvages menacées d’extinction qui s’est ouverte samedi à Johannesburg, et qui doit débattre de nouvelles mesures de protection. Le débat sur les mesures de protection en faveur des éléphants, animaux emblématiques des savanes, est un des plus attendus.
En cas d’extinction massive, toutes les espèces seraient menacées
Le phénomène d’extinction massive bouleverserait tellement les règles de survie que même les espèces répandues pourraient disparaître.
Les plus fragiles ne sont pas forcément ceux qu’on croit. Voilà comment pourrait-on résumer une étude de deux universitaires britanniques parue mardi dansNature Communications. Selon eux, en cas de phénomène d’extinction de masse, toutes les espèces animales sont menacées de disparition, les plus répandues comme celles étant en voie d’extinction.
Des règles de survie bouleversées. Généralement, les espèces présentes dans une large zone géographique ont plus de chances de survie en cas de catastrophe naturelle locale, que les espèces qui occupent des zones plus restreintes. Mais ça, c’est en temps normal. Car, selon l’étude d’Alex Dunhill et Matthew Wills, deux chercheurs des universités de Leeds et Bath, quand une extinction de masse apparaît, tous les animaux sont logés à la même enseigne. « Notre étude montre que les ‘règles’ de survie, dans des périodes d’extinction massive, sont très différentes de celles qui prévalent en temps ‘normal' », soulignent les auteurs.
Des animaux très répandus ont déjà disparu. C’est en étudiant des fossiles de vertébrés terrestres, y compris de dinosaures, datant de 145 à 252 millions d’années qu’ils sont parvenus à ces conclusions. Ainsi, il y a 200 millions d’années, un phénomène d’extinction de masse associé à des éruptions volcaniques massives et un changement climatique rapide a provoqué la disparition d’environ 80% des espèces de la planète dont certaines étaient pourtant largement répandues. « De nombreux groupes d’animaux ressemblant à des crocodiles se sont éteints après ce phénomène d’extinction massive à la fin du Trias alors qu’ils étaient vraiment diversifiés et largement répandus », a expliqué Alex Dunhill. « Au contraire, les dinosaures, qui, en comparaison, étaient relativement rares et pas aussi répandus, ont échappé à l’extinction et ont dominé les écosystèmes terrestres pendant les 150 millions d’années suivantes », a-t-il ajouté.
Pour Matthew Wills, souvent, les extinctions massives « bouleversent le statu quo et permettent à des groupes qui étaient précédemment secondaires de devenir dominants ». « Quelque chose de similaire est arrivé beaucoup plus tard, avec l’extinction des dinosaures, qui a ouvert la voie à des mammifères et finalement à nous-mêmes », a-t-il ajouté.
« Changement climatique rapide ». Selon les deux chercheurs, les « mêmes conditions » sont aujourd’hui réunies pour une nouvelle extinction de masse, « par l’activité humaine » et « à un rythme plus rapide ». La Terre a connu jusqu’à présent cinq extinctions de masse, la dernière en date remontant à 66 millions d’années. Selon une étude parue en juin dans la revue Science Advances, « nous entrons dans la sixième ». Les extinctions passées étaient « généralement associés à un changement climatique rapide », a expliqué Alex Dunhill, « les organismes ne sont pas capables de s’adapter assez rapidement au changement et donc disparaissent ». Les hausses ou les baisses de températures expliquent notamment en partie les disparitions du mammouth ou de l’homme de Neandertal.
Pour tenter de préserver les éléphants,il faut chasser les braconniers.Il est inutile de les mettre en prison,leur coller une amende,etc.Le mal est dans l’air…l’éléphant n’a pas de code-barre,donc sa vie ne vaut rien pour les capitalistes assoiffés de profits.
La seule voie est de condamner à mort les braconniers et de mettre en prison pour un minimum de 15 ans les trafiquants d’ivoire.
D’ici 2020, entre 21 et 26 milliards d’appareils seront connectés à Internet. Pour réussir à entreposer cette énorme quantité de données, des chercheurs en génomique tentent d’utiliser le meilleur outil offert par la nature : l’ADN.
Des relevés effectués par des chercheurs ou des compagnies, comme IBM ou Google, montrent que, chaque année, de nouveaux records sont établis quant à la quantité de données produites.
La technologie actuelle ne permet pas de régler le problème du stockage d’information, compte tenu de l’explosion des réseaux sociaux et de la vitesse à laquelle du nouveau contenu est mis en ligne.
Comme solution, des scientifiques américains se sont tournés vers l’ADN, l’une des façons les plus compactes de stocker de l’information sur Terre. L’ADN est composé de quatre nucléotides, quatre molécules identifiées à l’aide des lettres A, T, G et C, qui s’agencent entre elles pour encoder toute l’information biologique. Leurs travaux ont été publiés dans la revue Science.
Des chiffres et des lettres
La méthode employée pour passer du virtuel au biologique a déjà été testée dans d’autres études : on associe arbitrairement une lettre de l’ADN à une combinaison de 0 et de 1 qui forment les données informatiques, transformant ainsi le biologique en binaire.
Avec cette façon de procéder, les 6 milliards de lettres formant l’ADN humain donnent environ 1,5 gigaoctet de données (un disque Blu-ray contient entre 25 et 50 gigaoctets).
Cela peut paraître peu, mais chaque cellule contient une copie de ce code en son noyau (un noyau cellulaire mesure environ 10 microns). Si on multiplie ce chiffre par les 37 trillions de cellules qui forment un corps humain (37 milliards de milliards), on obtient une quantité de données insensée! Il est donc facile d’envisager que maîtriser l’ADN pour l’informatique réglerait tout problème de stockage actuel.
Un encodage unique, mais coûteux
La méthode employée par les chercheurs s’appelle « encodage par fontaine d’ADN ». Avec cet algorithme, il est possible d’entreposer 215 millions de gigaoctets dans 1 gramme d’ADN.
Ceci est la valeur maximale proposée par leur méthode. L’équipe a toutefois commencé avec un projet plus petit, en encodant plusieurs fichiers pour une valeur de 2,15 mégaoctets.
Ces chercheurs ont d’abord traduit la séquence binaire en séquence d’ADN grâce à leur algorithme. Ils ont ensuite fait synthétiser les brins d’ADN par une compagnie de biotechnologie, qui leur a envoyé le tout par la poste.
Ils ont ensuite reconverti l’ADN en fichiers informatiques, sans qu’aucune erreur ne s’y glisse, ce qui est une première. Rares sont ceux qui ont eu l’occasion de regarder une vidéo sur leur écran d’ordinateur à partir d’un fichier qui, peu de temps auparavant, était stocké dans un agencement de molécules organiques!
Il y a toutefois deux problèmes qui pourraient porter ombrage à cette méthode : son coût et sa vitesse. Il aura fallu 2 minutes 30 et 7000 $ pour encoder un fichier et 9 minutes ainsi que 2000 $ supplémentaires pour le décoder. Il n’est donc pas envisageable que cette technique soit commercialisable sous sa forme actuelle.
Les nouvelles technologies faisant souvent face à des problèmes de coûts, seul le temps nous dira si nous enregistrerons un jour nos fichiers sur des clefs USB à base d’ADN.
Les glaciers canadiens fondent rapidement et contribuent à la hausse du niveau des océans. C’est ce que des chercheurs de l’Université de Californie à Irvine ont découvert.
Les chercheurs ont étudié des données collectées entre 1991 et 2015 sur les glaciers des îles de la Reine-Élisabeth dans l’Arctique.
Ils ont découvert qu’entre 2005 et 2015, la surface de fonte de ces glaciers a augmenté de 900 %, une hausse qu’ils attribuent au réchauffement de la température dans la région.
Les scientifiques rappellent que les glaciers se résorbent de deux façons, par la fonte des surfaces et par la dislocation.
Or, avant 2005, la masse perdue des glaciers, dans la région étudiée, était le résultat des deux processus, à hauteur de 48 % et 52 % respectivement.
Après 2005, la fonte est devenue le principal facteur de perte des glaces. Elle compte maintenant pour 90 % du total des pertes dans la région.
Le Canada possède 20 % de l’ensemble planétaire des glaciers. Il est par conséquent le troisième contributeur au changement de niveau des océans.
Martin Sharp, un glaciologue de l’Université d’Alberta qui n’est pas associé à la recherche, affirme que le niveau de la mer pourrait grimper d’un demi-mètre au cours des 50 prochaines années, forçant les déplacements de populations et augmentant les risques de tempêtes et d’ouragans.
« Il y a deux milliards de personnes qui vivent à moins de deux mètres de la mer. L’ampleur du nombre de réfugiés que susciterait une hausse du niveau de la mer ferait paraitre dérisoire la crise actuelle des réfugiés », dit Martin Sharp.
Alors que l’espace a été un excellent forum pour l’exploration pacifique, il est aussi un excellent terrain de haut à partir de laquelle pour obtenir un avantage militaire. satellites d’espionnage ont été utilisés pendant des décennies. Et sous une forme ou une autre, aussi longtemps que l’ère spatiale a été autour, divers organismes ont envisagé d’utiliser l’espace comme une plate-forme pour les lancements de missiles ou d’autres activités. Dans ce diaporama, je vous présente le top 10 des concepts d’armes spatiales à partir au fil des ans jusqu’en 2017 …et plus loin,dans le futur.
Les missiles Les missiles ont été effectivement utilisés depuis environ 1000 ans, bien que l’ Encyclopedia Britannica souligne qu’il n’y a pas d’ histoire faisant autorité des premières fusées . La Chine est généralement cité comme l’endroit où les fusées sont apparues, suivis par l’ Europe.Les roquettes de type Métal cylindré ont été utilisées d’ abord en Inde au 18ème siècle, qui a déclenché une version anglaise de Sir William Congreve. Les rockets ont également été utilisés de façon limitée dans la guerre américano-mexicaine, la guerre de Sécession et la Première Guerre mondiale. D’ importantes améliorations dans la « roquetterie », cependant, ont commencé à apparaître dans le domaine militaire durant la Seconde Guerre mondiale. Les deux puissances de l’ Axe et les Alliés ont utilisé des missiles, mais c’est la fusée V-2 allemande qui a attiré le plus d’ attention, en raison de plus de 1.000 missiles qui ont été tirés sur la Grande – Bretagne. Lorsque l’ Allemagne a perdu la guerre, plusieurs des scientifiques des roquettes de la nation allemande ont été repris par l’Union soviétique et les États-Unis dans l’Opération Paperclip. Cela a contribué à améliorer la technologie des fusées dans les deux pays et a incité la course à l’espace entre les superpuissances. Les missiles sont, bien sûr, encore en usage aujourd’hui, surtout avec le développement des missiles balistiques intercontinentaux (ICBM)
Le Mahem de DARPA C’est un dispositif qui désintègre flux de métal en fusion ne seront probablement pas supporter beaucoup de chance. Cette idée, popularisée dans les romans de science-fiction tels que Arthur C. Clarke « Earthlight » (1955), peut devenir vrai un jour grâce au financement de l’Agence américaine Defense Advanced Research Projects (DARPA). La Munition explosive Magneto hydrodynamique (Mahem) a été annoncé en 2008. Bien qu’aucune des mises à jour ont eu lieu pendant un certain temps, la page pour Mahem est toujours active sur le site Web de la DARPA. Les promesses du programme «le potentiel d’ une plus grande efficacité, un meilleur contrôle, et la capacité à générer et avec précision le temps de multiples jets et des fragments d’une seule charge» , avec ce que les fonctionnaires DARPA ont écrit sur ce sujet: «précision de létalité. » Mahem pourrait être déployé sur des fusées.Je prépare un article sur DARPA.
Le projet THEL Le programme tactique High Energy Laser (THEL) a couru entre 1996 et 2005, selon Northrop Grumman . THEL a été créé comme un projet conjoint entre les Etats-Unis et Israël. Au cours de cette décennie de développement, le système basé sur le sol détruit tours 46 de mortier, de roquettes et de l’ artillerie – qui ont tous été aéroporté. Bien que le programme n’est plus actif, Northrop Grumman affirme que la technologie est maintenant en cours de reconstruction pour l’Etat Testbed Laser,une solide expérience de l’armée américaine qui, comme THEL, aura lieu à White Sands Missile Range au Nouveau-Mexique.
Avec autant de satellites en orbite autour de la Terre, il ne serait pas difficile d’en équiper un avec une arme prête à tirer sur la Terre, ou vers d’autres satellites, en fonction des besoins dictés! Alors qu’un tel concept irait à l’encontre des accords tels que le Traité sur l’espace extra-atmosphérique, qui interdit les armes de destruction massive en orbite, quelques organisations militaires en ont discuté au cours des dernières années . Un célèbre projet américain des années 1950 était le projet Thor, qui n’a jamais dépassé le stade de la conception. Divers concepts pour les armes spatiales au fil des ans incluant les » Rods de Dieu » , qui ferait chuter des armes à énergie cinétique hors de l’ orbite terrestre, ainsi que de petits satellites qui auraient à bord des systèmes leur permettant de viser d’autres satellites ou au sol .
La station spatiale Almaz de l’Union soviétique La station spatiale Almaz a été conçu dans les années 1960, visant à rendre plus facile pour l’Union soviétique la recherche de cibles en mer, selon l’expert spatial russe Anatoly Zak, qui dirige le site russe Espace Web . On croyait que les humains, ayant été placé en orbite, fourniraient une plate – forme puissante pour la reconnaissance orbitale et que cela permettrait le changement rapide des cibles durant les batailles ,mais tout cela a évolué. L’Union soviétique a participé à la course à la lune dans les années 1960, ce qui a retardé le premier déploiement de Almaz jusqu’en 1973. Cela a été annoncé au monde comme Saliout-2, la deuxième station spatiale Saliout, afin de ne pas rendre les autres conscients que les Soviétiques avaient deux projets de stations spatiales:un militaire et l’autre scientifique,selon Zak . Une défaillance survenue dans Saliout-2 a empêché l’ équipage de se rendre dans l’espace, mais les stations spatiales Almaz ultérieures Saliout-3 et Saliout-5 ont eu des équipages à bord. (Saliout-4 n’a jamais été envoyé en orbite.) Les cosmonautes sont déclarés avoir eu à faire une surveillance militaire sur au moins une mission, et ont tiré un coup de canon en 1975 , mais des problèmes techniques avec les stations ont empêché la plupart des missions de pouvoir accomplir leurs longueurs prévues.Le laboratoire américain Manned Orbiting L’ Orbiting Laboratory Manned (MOL) était un projet US Air Force que, malgré jamais lancer un astronaute, a eu une vie mouvementée 1963-1969 (les années du programme d’activité). Certaines des étapes du projet ont vu la sélection inclure 17 astronautes, la création d’un site de lancement à Vandenberg Air Force Base en Californie et des modifications sur le vaisseau spatial Gemini de la NASA , pour accueillir le nouveau programme. L’ un des principaux objectifs du programme était la reconnaissance, sous un nom de code du projet Dorian. Le système de caméra a été conçu pour obtenir des photographies de l’Union soviétique, entre autres points chauds, avec une résolution meilleure que tout satellite de son temps aurait pu atteindre. MOL aurait également pu transporter des missiles (non nucléaire, mais quelque chose pour provoquer une peur,une hystérie collective) et des filets pour attraper des vaisseaux ennemis. Beaucoup de nouveaux détails ont été dévoilés à la fin de 2015 avec la sortie de plus de 20.000 pages de documents sur MOL. Le programme a été annulé après que les coûts estimés eurent gonflé. (MOL devait coûter plus de 3 milliards $ en dollars du voyage , avec 1,3 milliard $ déjà dépensés, au moment de l’annulation.) Certains des pseudo-astronautes de MOL, tels que Bob Crippen et Richard Truly,furent transféré à la NASA pour les premiers vols de la navette spatiale.
Intercontinental Ballistic Missiles Les ICBM (missiles balistiques intercontinentaux) sont des missiles terrestres qui peuvent voler à plus de 3.500 miles (5.600 kilomètres), selon l’Encyclopedia Britannica . L’Union soviétique a envoyé en l’ air le premier ICBM en 1958, et les États – Unis en ont d’abord tiré un en 1959, suivi de quelques autres nations. Israël, l’ Inde et la Chine ont récemment développé les ICBM,.On a vu que la Corée du Nord peut le faire aussi bien. L’ICBM peut être contrôlé par ordinateur ou par satellite et mettre en évidence une cible sur terre :soit une ville particulière ou, si suffisamment sophistiqué, une cible dans une ville. Alors qu’ils sont plus célèbres pour être en mesure de transporter des armes nucléaires, ils pourraient également livrer des armes chimiques ou biologiques – bien que dans la mesure où les gens le savent, ce potentiel n’a jamais été réalisé. L’Union soviétique et les États-Unis ont accepté de réduire leurs stocks d’ICBM en 1991 dans le cadre du traité Start I, mais la Russie et les Etats – Unis ont encore de nombreux missiles de ce type et les ICBM sont encore testé aujourd’hui.
Après quatre missions dans l’espace, il n’est pas encore tout à fait clair ce que l’avion spatial X-37B est en train de faire là-haut en orbite – mais certaines personnes ont spéculé que le véhicule pourrait être une sorte d’arme Air Force. L’avion réutilisable ressemble à une version plus petite de la navette spatiale de la NASA, mais il est exploité robotiquement et peut rester en orbite pendant plus d’un an à la fois.C’est une sorte de drone spatial. Pour sa quatrième mission ( en cours), en 2015 , l’armée américaine a confirmé un couple des charges utiles – une enquête sur les matériaux avancés de la NASA et un système de propulsion expérimentale par l’Air Force, par exemple – mais la plupart des détails sur les missions de l’ X-37B restent classés. Une vidéo de Tech Report Air Force en 2015 avait donné beaucoup d’ idées sur ce que l’appareil pourrait faire là – bas, tels que des bombardements de l’ espace, interférer avec les satellites ennemis, effectuer la reconnaissance ou peut – être faire tout ce qui précède dans le même temps. Mais les responsables de la Force aérienne ont toujours nié que le X-37B soit une arme, en soulignant que le vaisseau spatial expérimente les technologies pour les futurs engins spatiaux et la réalisation d’ expériences en provenance de l’ espace.
Systèmes anti-satellite En 1985, un jet F-15A a tiré un missile anti-satellite sur la sonde Solwind P78-1, un satellite qui a découvert plusieurs comètes se dirigeant vers le soleil mais était prévu pour sa mise hors service en raison de ses instruments qui commencaient à échouer. Solwind P78-1 a été détruit avec le véhicule miniature Air-Launch (AIMV) tiré de l’avion, mais le test a généré plus de 250 morceaux de débris spatiaux assez grands pour apparaître dans les systèmes de suivi.Le Congrès a interdit d’autres tests d’ici la fin de l’année, et la Force aérienne a arrêté le programme en 1987. Le test réussi faisait partie d’une plus grande recherche militaire afin de trouver un moyen de détruire les satellites sans violer les règles des traités qui ont interdit les armes nucléaires sur les engins spatiaux. Des exemples énumérés par l’ Union of Concerned Scientists inclus le système de défense stratégique (parfois appelé « Star Wars ») et l’Armée de l’ Air / Navy Mid-Infrared Chemical Advanced Laser qui a été conçu pour être tiré à partir du sol. Un test en 1997 semblait submerger ou endommager le capteur de satellite qui a été ciblé. Des efforts ultérieurs inclus l’ASAT énergie cinétique (qui a été annulé) et le système de communication compteur, qui a utilisé les capacités de radio-brouillage. Les systèmes anti-satellites ont également été étudiés par l’Union soviétique, la Chine et l’ Inde, entre autres. Par exemple, un célèbre test anti-satellite par la Chine,en 2007, a généré un énorme nuage de débris spatiaux. En 2013, un tesson du satellite détruit a frappé un satellite russe et l’a aussi rendu inopérable .Manipuler un Asteroide Les scientifiques savent que les astéroïdes sont les tueurs ultimes. Après tout, un pareil rocher spatial de 6 miles de large (10 km) space rock est soupçonné d’avoir fait disparaître les dinosaures il y a environ 66 millions d’ années. Les spectateurs ont vu les impacts humains potentiels dans des films tels que « Meteor » (1979) , « Deep Impact » (1998) et « Armageddon » (1998). Et même relativement parlant de petits astéroïdes peuvent avoir un impact important, grâce aux vitesses énormes au cours de laquelle des objets spatiaux se déplacent. Par exemple, les scientifiques pensent que l’objet qui a explosé au-dessus de la ville russe de Chelyabinsk en Février 2013, générant une onde de choc qui a brisé des milliers de fenêtres et blessé 1.200 personnes (en raison des éclats de verre volants), était à seulement 66 pieds (20 mètres ) de large. Mais la manipulation d’ un astéroïde est dans le domaine de la science – fiction, pour l’ instant. La NASA a une mission d’action sur les astéroïdes dans ses cartons de projets; d’ abord, l’agence a proposé de déplacer un petit astéroïde proche de la Terre pour la recherche scientifique, mais élu pour arracher un rocher au large un astéroïde à la place . Cette Redirect Mission Asteroid est actuellement prévue pour le lancement au début des années 2020. Même si certains experts disent que les astéroïdes sont des » armes moche , » parce qu’ils sont utilisables uniquement une fois tous les quelques centaines d’ années, la science – fiction vous a couvert là aussi. Par exemple:les Aliens effacent Buenos Aires avec un astéroïde dans le film de 1997 « Starship Troopers » . Des roches spatiales ont même effacé des Martiens dans des livres tels que « Protector » (1973), par Larry Niven.
Extrait de la conférence du 3 décembre 2011 : « Cette crise n’en est pas une. Tout se passe comme prévu ! », Étienne Chouard. Biographies succinctes : Myret Zaki est une journaliste économique suisse romande, rédactrice en chef. Elle a fait ses débuts dans la banque privée genevoise Lombard Odier Darier Hentsch & Cie, où elle se forme […]
Le revenu universel s’impose-t-il face à la montée en puissance de l’automatisation ? Oui, d’après le fondateur de SpaceX.
Elon Musk est l’une des principales figures de l’innovation technologique de nos jours, notamment dans le domaine des intelligences artificielles. Pour lui, la révolution est en marche et va inexorablement se poursuivre dans les prochaines années. L’Homme va devoir se résoudre à s’adapter à la vie avec les automates. Si une telle vision a de quoi inquiéter face aux millions d’emplois déjà détruits et à ceux qui doivent encore l’être dans les années à venir, l’ingénieur défend aussi une proposition compensatoire : l’instauration d’un revenu de base.
En effet, selon lui, la solution économique à cette réalité du monde moderne pourrait simplement être de rémunérer les Hommes indépendamment du fait qu’ils aient un travail ou non. Ce système de redistribution des richesses n’est donc rien d’autre quele revenu universel qui fait actuellement débat en France.
Cette position, Elon Musk la défend déjà depuis plusieurs mois, et il l’a encore réitérée cette semaine à l’occasion du Sommet sur la gouvernance mondiale qui s’est tenu du 12 au 14 février 2017 à Dubaï. D’après ses propos repris par fastcompany, les avancées de l’automatisation font « qu’il y aura de moins en moins d’emplois qu’un robot n’arrivera pas à mieux maîtriser ».
Il ne le dit pas avec enthousiasme, mais se veut réaliste : « Je veux être clair. Ce ne sont pas des choses que je souhaite voir arriver. Mais si mon évaluation est correcte, elles vont probablement se produire ».
Que devons-nous faire face une telle réalité ? À ce propos, le fondateur de SpaceX « pense qu’une certaine forme de revenu universel de base va être nécessaire ». Mais cela soulèvera selon lui un autre problème, puisqu’il s’interroge aussi sur le sens que les gens donneront à leur vie s’ils ne sont plus tenus de travailler pour gagner leur vie.
« Cela engendrera un défi beaucoup plus complexe. Comment les gens vont-ils donner un sens à leur vie ? Beaucoup se réalisent à travers leur emploi. Donc, si vous n’avez plus besoin d’un travail pour vivre, quel sens donnerez-vous à votre existence ? Vous sentirez-vous inutile ? C’est un problème beaucoup plus difficile à résoudre », conclut l’homme qui veut envoyer les humains coloniser la planète Mars.
HORS TEXTE
Elon Musk a raison car voici 5 métiers qui vont être remplacé par des robots
Cela fait des décennies que le monde du travail est reconfiguré par l’automatisation. Les robots, de plus en plus sophistiqués, sont plus que jamais capables de remplacer les Hommes dans plusieurs types de métiers.
Un rapport du Forum économique mondial indiquait tout récemment que d’ici 2020, près de 7,1 millions d’emplois pourraient être menacés à cause de la redondance et de l’automatisation.
Si les travaux manuels étaient davantage mis à mal, les métiers dont les tâches sont intellectuelles le sont également de plus en plus, avec de nouveaux types de robots humanoïdes qui sont aujourd’hui plus intelligents que jamais. Les métiers demandant de forts contenus décisionnels, de la créativité et de l’intelligence sociale semblent être ceux qui sont les plus susceptibles de résister à la concurrence des automates.
Voici cinq métiers où les robots pourraient remplacer les Hommes :
Chauffeur / conducteur
Les géants de la technologie ont beaucoup investi dans les voitures autonomes ces dernières années, et les projets dans ce domaine sont aujourd’hui arrivés à maturité. Des entreprises proposent déjà des services de taxi sans pilote. C’est le cas de Uber à Pittsburgh, aux États-Unis ou de nuTonomy à Singapour. Ces dernières comptent d’ailleurs augmenter le nombre de leurs voitures sans pilote dans les prochaines années. NuTonomy espère même se passer de chauffeurs d’ici 2018.
Serveur
Les robots humanoïdes sont maintenant à notre service. En chine, de plus en plus de restaurants font la part belle aux robots-serveurs, et ce, au détriment de la main d’œuvre humaine. Ces robots jouent même déjà dans certains cas le rôle de cuisiniers. Cette tendance pourrait se généraliser dans les années à venir, d’autant plus que des entreprises proposent déjà plusieurs modèles de robots-serveurs à la vente.
Ouvrier magasinier
Charger, transporter ou décharger des marchandises, cela fait un moment que les robots savent bien le faire. Certaines entreprises, dont le géant Amazon ont d’ailleurs progressivement remplacé les ouvriers humains par des robots dans leurs centres de stockage.
Livreur
Le développement fulgurant des drones ne vous a certainement pas échappé. Leur utilisation dans le civil permet à de nombreux services de transport et de livraison de marchandises d’y avoir recours. Amazon est ici aussi l’une des sociétés qui s’activent le plus. Elle teste déjà depuis quelques années l’utilisation des drones pour la livraison à domicile de ses commandes. Il ne va peut-être pas falloir attendre longtemps pour voir les drones-livreurs nous envahir.
Téléconseiller
Beaucoup de téléconseillers aujourd’hui ne sont pas humains. Dans certains cas, comme vous l’avez surement déjà expérimenté, il n’y a pas un interlocuteur humain à l’autre bout de la ligne, mais des enregistrements organisés de sorte à répondre à vos préoccupations de manière précise. Tout ce que vous avez à faire est de suivre des instructions. Ex : « appuyez sur » 1 « pour plus d’informations », etc.
Mais dans les années à venir, il pourrait ne plus s’agir de naviguer entre plusieurs instructions déjà enregistrées, mais plutôt d’échanger directement avec une intelligence artificielle. C’est déjà le cas chez le géant IBM qui a développé un super-ordinateur baptisé Watson pour gérer une partie des standards téléphoniques.
Watson est composé de 2887 processeurs et dispose d’une mémoire de 16 téraoctets. Il est conçu pour gérer des conversations et fournir des réponses d’une précision impressionnante. Le dispositif a déjà été intégré aux services de téléconseillers de plusieurs grandes entreprises dont les banques ANZ (Australie) et Royale du Canada. Il prend en charge une bonne partie des appels reçus.
Voilà bien qui montre que le monde du travail est en constante mutation, ce qui nous amène à penser que ceux qui parlent aujourd’hui de l’instauration d’un revenu universel n’ont peut-être pas tort. Si les robots bossent déjà à la place des Hommes, on pourrait bien payer ces derniers à ne rien faire, non ?