Heures Supp

06 septembre 2022

Le dilemne de la migration

Les dirigeants politiques qui veulent agir avec humanité envers les demandeurs d'asile et les autres migrants sont désormais confrontés à un dilemme moral. Soit ils poursuivent un contrôle des frontières qui est suffisamment strict pour saper le soutien public aux partis d'extrême droite, soit ils risquent de permettre à ces partis de gagner plus de pouvoir - et de contester les valeurs les plus fondamentales de l'Occident.
L'histoire médiatique la plus déchirante du mois dernier a montré des enfants qui pleuraient après avoir été séparés de leurs parents à la frontière entre les États-Unis et le Mexique. Le président américain Donald Trump, après avoir initialement défendu les séparations, a cédé à la pression du public et a signé un décret exécutif y mettant fin. En Europe également, les immigrants ont fait la une des journaux alors que le navire Aquarius, qui transportait 629 immigrants potentiels sauvés, a été refoulé par le nouveau gouvernement populiste italien, ainsi que par Malte. Cela a servi de base à une réunion de l'Union européenne à Bruxelles, qui a dégagé un compromis sur la façon de protéger les frontières de l'Europe et de filtrer les migrants arrivant.
Il y a moins de trois ans, lorsque plus de 100 000 demandeurs d'asile arrivaient aux frontières de l'UE chaque mois, la chancelière allemande Angela Merkel a déclaré: Le droit fondamental à l'asile pour les personnes politiquement persécutées ne connaît pas de limite supérieure. » Elle a ajouté que cela s'applique également aux réfugiés qui viennent chez nous de l'enfer d'une guerre civile. »
Merkel a suivi ces mots avec action. En 2015, l'Allemagne a enregistré 890 000 demandeurs d'asile et, sur une période de 18 mois à compter du 1er septembre de la même année, a accepté plus de 600 000 demandes d'asile. Intégrer tant de nouveaux arrivants d'horizons culturels très différents allait évidemment être une tâche difficile, mais Merkel l'a proclamé célèbre, Wir schaffen das »(nous pouvons le faire). Aucun acte d'aucun dirigeant allemand, pas même la décision spontanée de Willy Brandt en 1970 de s'agenouiller devant un mémorial aux héros du soulèvement du ghetto de Varsovie, n'a plus éloigné de manière décisive l'Allemagne de son passé raciste.

Posté par admin101 à 07:48 - Commentaires [0] - Permalien [#]


16 juin 2022

Voyager dans le temps

HBO, sous les ordres de faire plus avec la nouvelle société mère, WarnerMedia, a remis une commande directe à la série sur le roman d'Audrey Niffenegger, The Time Traveler's Wife.

Le drame, qui a atterri chez le câbleur premium après une guerre d'enchères à sorties multiples, sera adapté par Steven Moffat (Sherlock, Doctor Who). Le nombre d'épisodes et la date de la première doivent encore être déterminés. Le casting n'a pas encore commencé.

"J'ai lu The Time Traveler's Wife d'Audrey Niffenegger il ya de nombreuses années, et je suis tombée amoureuse de ce film", a déclaré Moffat. "En fait, j'ai écrit un épisode de Doctor Who intitulé" The Girl in the Fireplace "pour y répondre directement. Quand, dans son prochain roman, Audrey avait un personnage qui regardait cet épisode, je me suis rendu compte qu'elle était probablement pour moi. Toutes ces années plus tard, la possibilité d'adapter le roman lui-même est un rêve devenu réalité: le nouveau monde de la télévision longue durée est maintenant prêt pour ce genre de profondeur et de complexité. dans cet ordre."

Moffat va écrire le scénario et exécuter avec Sue Vertue et Brian Minchin. La série est composée de Warner Bros. Television et Hartswood Films, cette dernière étant la société de production dirigée conjointement par Moffat et sa femme productrice de télévision, Vertue.

"Nous sommes ravis de nous associer à Steven Moffat, Hartswood et WBTV sur The Time Traveler's Wife", a déclaré le président de la programmation de HBO, Casey Bloys. "La passion de Steven est évidente dans tous les projets qu'il a écrits et nous sommes certains que son amour et son respect pour ce roman fascinant et texturé en feront une série HBO par excellence."

La nouvelle survient un jour après que HBO a participé à une série pilote sur le pilote de drame adolescent Euphoria, avec Zendaya et le producteur Drake. Après la fusion entre la société mère Warner Bros. et AT & T, le réseau câblé haut de gamme a été invité à augmenter sa gamme d'originaux afin de mieux concurrencer les concurrents du streaming, notamment Netflix et Amazon. la programmation. Le défi, a souligné M. Bloys, sera d'augmenter la production sans sacrifier la réputation de HBO: la qualité.

La femme du voyageur du temps a été précédemment adaptée pour le grand écran en 2009 avec les étoiles Eric Bana et Rachel McAdams, hôtel séminaire entreprise et réalisé par Robert Schwentke. New Line, une division de Warner Bros. a produit la libération et maintenu les droits sur la propriété. La grande entreprise Time Traveller's Wife a dépensé plus de 100 millions de dollars dans le monde, avec un budget de 39 millions de dollars.

Posté par admin101 à 10:28 - Commentaires [0] - Permalien [#]

16 mai 2022

Comment le colonialisme a façonné l'inégalité moderne

L'immense inégalité économique que nous observons dans le monde aujourd'hui ne s'est pas produite du jour au lendemain, ni même au siècle dernier. C'est le résultat, dépendant du chemin, d'une multitude de processus historiques, dont l'un des plus importants a été le colonialisme européen. En retraçant nos pas 500 ans, ou de retour au bord de ce projet colonial, nous voyons peu d'inégalités et de petites différences entre pays pauvres et riches (peut-être un facteur de quatre). Or, les différences sont un facteur de plus de 40, si l'on compare les pays les plus riches aux pays les plus pauvres du monde. Quel rôle le colonialisme a-t-il joué dans ce domaine?
Dans nos recherches avec Simon Johnson, nous avons montré que le colonialisme a façonné l'inégalité moderne de plusieurs manières fondamentales, mais hétérogènes. En Europe, la découverte des Amériques et l'émergence d'un projet colonial de masse, d'abord dans les Amériques, puis en Asie et en Afrique, ont potentiellement contribué à stimuler le développement institutionnel et économique, mettant ainsi en mouvement certaines des conditions préalables à ce que allait devenir la révolution industrielle (Acemoglu et al. 2005). Mais la façon dont cela fonctionnait était subordonnée aux différences institutionnelles au sein de l'Europe. Dans des endroits comme la Grande-Bretagne, où une lutte précoce contre la monarchie avait donné le dessus au Parlement et à la société, la découverte des Amériques a conduit à une plus grande autonomisation des groupes marchands et industriels, qui ont pu profiter des nouvelles opportunités économiques que les Amériques , et bientôt l'Asie, ont présenté et poussé à l'amélioration des institutions politiques et économiques. La conséquence en a été la croissance économique. Dans d'autres endroits, comme en Espagne, où les institutions politiques initiales et l'équilibre des pouvoirs étaient différents, le résultat a été différent. La monarchie a dominé la société, le commerce et les opportunités économiques, et en conséquence, les institutions politiques sont devenues plus faibles et l'économie a décliné. Comme Marx et Engels l'ont dit dans le Manifeste communiste,
La découverte de l'Amérique, l'arrondi du Cap, a ouvert un nouveau terrain à la bourgeoisie montante. »
Oui, mais seulement dans certaines circonstances. Dans d'autres, cela a entraîné un ralentissement de la bourgeoisie. En conséquence, le colonialisme a stimulé le développement économique dans certaines parties de l'Europe et l'a ralenti dans d'autres.
Le colonialisme n'a cependant pas seulement eu un impact sur le développement des sociétés qui ont colonisé. De toute évidence, cela a également affecté les sociétés colonisées. Dans nos recherches (Acemoglu et al. 2001, 2002), nous avons montré que cela, encore une fois, avait des effets hétérogènes. C'est parce que le colonialisme a fini par créer des sortes de sociétés très distinctes dans différents endroits. En particulier, le colonialisme a laissé des héritages institutionnels très différents dans différentes parties du monde, avec des conséquences profondément divergentes pour le développement économique.
La raison en est non pas que les différentes puissances européennes ont transplanté différentes sortes d'institutions - de sorte que l'Amérique du Nord a réussi en raison de l'héritage des institutions britanniques, tandis que l'Amérique latine a échoué en raison de ses institutions espagnoles.
En fait, les preuves suggèrent que les intentions et les stratégies de puissances coloniales distinctes étaient très similaires (Acemoglu et Robinson 2012). Les résultats étaient très différents en raison de la variation des conditions initiales dans les colonies. Par exemple, en Amérique latine, où les populations autochtones sont denses, une société coloniale pourrait être créée sur la base de l'exploitation de ces personnes. En Amérique du Nord, où de telles populations n'existaient pas, une telle société était irréalisable, même si les premiers colons britanniques ont tenté de la créer. En réponse, la première société nord-américaine est allée dans une direction complètement différente: les premières entreprises de colonisation, telles que la Virginia Company, devaient attirer les Européens et les empêcher de courir vers la frontière ouverte et elles devaient les inciter à travailler et à investir. Les institutions qui l'ont fait, telles que les droits politiques et l'accès à la terre, étaient radicalement différentes, même des institutions du pays colonisateur. Lorsque les colonisateurs britanniques ont découvert des circonstances latino-américaines, par exemple en Afrique du Sud, au Kenya ou au Zimbabwe, ils étaient parfaitement capables et intéressés par la mise en place de ce que nous avons appelé des «institutions extractives», basées sur le contrôle et l'extraction des loyers. des peuples autochtones. Dans Acemoglu et Robinson (2012), nous soutenons que les institutions extractives, qui privent la vaste masse de la population d'incitations ou d'opportunités, sont associées à la pauvreté. Ce n'est pas non plus un hasard si ces sociétés africaines sont aujourd'hui aussi inégales que les pays d'Amérique latine.
Ce n'était pas seulement la densité des peuples autochtones qui importait pour le type de société qui se formait. Comme nous l'avons montré dans Acemoglu et al. (2001), l'environnement pathologique auquel sont confrontés les colons européens potentiels était également important. Ce qui a encouragé la colonisation de l'Amérique du Nord, c'est l'environnement de la maladie relativement bénin qui a facilité la stratégie de création d'institutions pour garantir la migration européenne. Quelque chose qui a encouragé la création d'institutions extractives en Afrique de l'Ouest était le fait que c'était le «cimetière de l'homme blanc», décourageant la création du type «d'institutions économiques inclusives» qui encourageait l'établissement et le développement de l'Amérique du Nord. Ces institutions inclusives, contrairement aux institutions extractives, ont créé des incitations et des opportunités pour la vaste masse de la population.
Notre focalisation sur l'environnement de la maladie en tant que source de variation dans les sociétés coloniales n'était pas parce que nous considérions que c'était la seule, voire la principale source de variation dans la nature de ces sociétés. C'était pour une raison scientifique particulière: nous avons soutenu que les facteurs historiques qui ont influencé l'environnement de la maladie pour les Européens et donc leur propension à migrer vers une colonie particulière ne sont pas en eux-mêmes une source significative de variation dans le développement économique aujourd'hui. Plus techniquement, cela signifiait que les mesures historiques de la mortalité des colons européens pouvaient être utilisées comme variable instrumentale pour estimer l'effet causal des institutions économiques sur le développement économique (mesuré par le revenu par habitant). Le principal défi de cette approche est que les facteurs qui ont historiquement influencé la mortalité européenne peuvent être persistants et peuvent influencer le revenu aujourd'hui, peut-être par le biais d'effets sur la santé ou l'espérance de vie contemporaine. Il existe cependant plusieurs raisons pour lesquelles cela n'est probablement pas vrai. Premièrement, nos mesures de la mortalité européenne dans les colonies remontent à environ 200 ans, avant la fondation de la médecine moderne ou la compréhension des maladies tropicales. Deuxièmement, ce sont des mesures de la mortalité à laquelle sont confrontés les Européens sans immunité aux maladies tropicales, ce qui est très différent de la mortalité à laquelle sont confrontés les peuples autochtones aujourd'hui, ce qui est probablement ce qui est pertinent pour le développement économique actuel de ces pays. Juste pour vérifier, nous avons également montré que nos résultats sont robustes au contrôle économétrique de diverses mesures modernes de la santé, telles que le risque de paludisme et l'espérance de vie.
Ainsi, tout comme le colonialisme a eu des effets hétérogènes sur le développement en Europe, en le promouvant dans des endroits comme la Grande-Bretagne, mais en le retardant en Espagne, il a également eu des effets très hétérogènes dans les colonies. À certains endroits, comme en Amérique du Nord, il a créé des sociétés dotées d'institutions beaucoup plus inclusives que dans le pays colonisateur lui-même et a semé les graines de l'immense prospérité actuelle de la région. Dans d'autres, comme l'Amérique latine, l'Afrique ou l'Asie du Sud, il a créé des institutions extractives qui ont conduit à des résultats de développement à long terme très médiocres.
Le fait que le colonialisme ait eu des effets positifs sur le développement dans certains contextes ne signifie pas qu'il n'a pas eu d'effets négatifs dévastateurs sur les populations autochtones et la société. Ça faisait.
Le fait que le colonialisme aux premiers temps modernes et modernes ait eu des effets hétérogènes est rendu plausible par de nombreux autres éléments de preuve. Par exemple, Putnam (1994) a proposé que c'est la conquête normande du sud de l'Italie qui a créé le manque de `` capital social '' dans la région, le manque de vie associative qui a conduit à une société qui manquait de confiance ou de capacité à coopérer. . Pourtant, les Normands ont également colonisé l'Angleterre et cela a conduit à une société qui a donné naissance à la révolution industrielle. Ainsi, la colonisation normande a également eu des effets hétérogènes.
Le colonialisme est important pour le développement car il façonne les institutions de différentes sociétés. Mais beaucoup d'autres choses les ont également influencés et, au moins au début de la période moderne et moderne, il y avait pas mal d'endroits qui ont réussi à éviter le colonialisme. Il s'agit notamment de la Chine, de l'Iran, du Japon, du Népal et de la Thaïlande, entre autres, et il y a beaucoup de variations dans les résultats de développement au sein de ces pays, sans parler de la grande variation au sein de l'Europe elle-même. Cela soulève la question de l'importance, quantitativement, du colonialisme européen par rapport à d'autres facteurs. Acemoglu et al. (2001) calculent que, selon leurs estimations, les différences dans les institutions économiques représentent environ les deux tiers des différences de revenu par habitant dans le monde. Parallèlement, Acemoglu et al. (2002) montrent qu'à eux seuls, la mortalité historique des colons et la densité de population indigène en 1500 expliquent aujourd'hui environ 30% de la variation des institutions économiques dans le monde. Si l'on ajoute l'urbanisation historique de 1500, qui peut également expliquer la variation de la nature des sociétés coloniales, elle augmente à plus de 50% de la variation. Si cela est vrai, alors un tiers des inégalités de revenus dans le monde aujourd'hui peut s'expliquer par l'impact variable du colonialisme européen sur différentes sociétés. Une grosse affaire.
Que le colonialisme ait façonné les institutions historiques des colonies pourrait être évidemment plausible. Par exemple, nous savons qu'au Pérou, dans les années 1570, le vice-roi espagnol Francisco de Toledo a mis en place un énorme système de travail forcé pour extraire l'argent de Potosí. Mais ce système, le Potosí mita, a été aboli dans les années 1820, lorsque le Pérou et la Bolivie sont devenus indépendants. Affirmer qu'une telle institution, ou, plus largement, les institutions créées par les puissances coloniales du monde entier, influencent le développement aujourd'hui, revient à affirmer comment le colonialisme a influencé l'économie politique de ces sociétés d'une manière qui a conduit ces institutions à soit persister directement, soit laisser un héritage dépendant du chemin. Le travail forcé des peuples autochtones a duré directement jusqu'à au moins la révolution bolivienne de 1952, lorsque le système connu sous le nom de pongueaje a été aboli. Plus généralement, Acemoglu et Robinson (2012, chapitres 11 et 12) et Dell (2010) discutent de nombreux mécanismes par lesquels cela aurait pu se produire.
Enfin, il convient de noter que nos résultats empiriques ont des implications importantes pour les théories altératives du développement comparatif. Certains soutiennent que les différences géographiques sont dominantes pour expliquer les modèles de développement à long terme. En contradiction, nous avons montré qu'une fois le rôle des institutions pris en compte, les facteurs géographiques ne sont pas corrélés avec les résultats de développement. Le fait, par exemple, qu'il existe une corrélation entre la latitude et la géographie n'est pas indicatif d'une relation causale. Elle est simplement motivée par le fait que le colonialisme européen a créé un modèle d'institutions en corrélation avec la latitude. Une fois ceci contrôlé, les variables géographiques ne jouent aucun rôle causal. D'autres soutiennent que les différences culturelles sont primordiales pour stimuler le développement. Nous n'avons trouvé aucun rôle pour les différences culturelles mesurées de plusieurs manières. Premièrement, la composition religieuse des différentes populations. Deuxièmement, comme nous l'avons souligné, l'identité de la puissance coloniale. Troisièmement, la fraction de la population d'un pays d'origine européenne. Il est vrai, bien sûr, que les États-Unis et le Canada se sont remplis d'Européens, mais dans notre argumentation, c'était le résultat du fait qu'ils avaient de bonnes institutions. Ce n'est pas la domination numérique des personnes d'ascendance européenne aujourd'hui qui motive le développement.

Posté par admin101 à 08:31 - Commentaires [0] - Permalien [#]

15 mars 2022

Captivité: en finir pour le bien etre des dauphins

Le Parlement du Canada a adopté une loi interdisant aux baleines, aux dauphins et aux marsouins d'être élevés ou placés en captivité - un changement qui a été salué par les militants des droits des animaux. Les infractions sont passibles de sanctions allant jusqu'à 200 000 dollars canadiens (environ 150 000 $). Le projet de loi contient quelques exceptions: les mammifères marins actuellement détenus seront autorisés à rester en captivité. Ainsi que les animaux pourraient être maintenus tout au long de la réadaptation après des blessures ou dans le but d'une étude scientifique autorisée. Les militants des droits des animaux de compagnie, qui ont longtemps soutenu que cela contenait des mammifères marins et que leur formation à divertir revenait à la cruauté, ont célébré les reportages, tweetant sous les hashtags #EmptyTheTanks et #FreeWilly. L'ancien sénateur Wilfred Moore de la Nouvelle-Écosse, qui en 2015, en tant que sénateur, a lancé la décision, appelée Finishing the Captivity of Whales and Dolphins Act, a déclaré dans un communiqué de Humane Society Worldwide / Canada que la mise en captivité progressive des animaux avait été un «exigence morale». Le Sénat du Canada a adopté la mesure l'année dernière, et la Chambre des communes a voté pour l'accepter lundi. Les lois sont maintenant soumises à une procédure connue sous le nom de sanction royale avant de devenir une loi. La SRC rapporte que la mesure «affecte notamment Marineland, le parc à thème et le parc zoologique de Niagara Falls [Ontario], qui est considéré comme le dernier parc canadien axé sur le maintien des cétacés en captivité». Marineland compte quelque 61 cétacés, tels que «55 bélugas, 5 grands dauphins et une orque», selon la CBC, citant des informations de Pêches et Océans Canada. Le parc s'était initialement opposé à l'interdiction, affirmant que cela pourrait nuire à la fréquentation ainsi qu'aux efforts d'efficacité. Cependant, dans un communiqué lundi, voir les dauphins Marineland a déclaré que ses opérations se développaient depuis sa fondation dans les années 1960 et qu'elle se conformerait aux lois. L'Aquarium de Vancouver s'est incliné face à l'opposition du public l'année dernière et a déclaré qu'il ne garderait plus toujours les dauphins et les baleines à exposer. Pendant ce temps, il a connu un seul dauphin en captivité. "Le public nous a dit qu'il pensait que l'importation et l'exposition continues de ces mammifères intelligents et sociables étaient frauduleuses et incompatibles avec le développement du point de vue du public, nous avons donc modifié nos statuts en conséquence", a déclaré Stuart Mackinnon, président de la table de la zone de loisirs de Vancouver, dans un communiqué. Aux États-Unis, SeaWorld Parks & Entertainment, qui possède des zones de loisirs SeaWorld en Californie, en Floride et dans l'État du Texas, a annoncé en 2016 qu'il arrêterait la reproduction des épaulards en captivité et mettrait l'accent sur les opérations de sauvetage des mammifères marins. 3 ans plus tôt, le documentaire Blackfish a déclenché un tollé public sur le traitement des orques captives. Le film a documenté le meurtre de l'entraîneur SeaWorld Daybreak Brancheau par une orque nommée Tilikum en 2010. Près de 60 orques seront en captivité dans des parcs et aquariums du monde entier. "Un tiers des orques captives du monde se trouvent aux États-Unis, et tous, sauf parmi ceux-ci, restent dans les 3 parcs de SeaWorld à Orlando, San Diego, Californie et San Antonio", a déclaré Nationwide Geographic. Et même si SeaWorld s'est concentré sur d'autres attractions, il propose des démonstrations de dauphins en continu, à la désapprobation de People for the Moral Treatment of Animals, un critique de longue date. L'équipe des droits légaux des animaux soutient que de tels spectacles peuvent nuire aux créatures. Le vice-président de SeaWorld chargé de la santé et du bien-être des animaux, Hendrik Nollens, a récemment défendu l'exercice, affirmant que les dauphins "sont plus rapides que nous. Ils sont plus puissants que nous".

Posté par admin101 à 16:43 - Commentaires [0] - Permalien [#]

01 mars 2022

Des questions sur la reconnaissance faciale

Ce rapport de l'Initiative pour l'intelligence artificielle et les technologies émergentes (AIET) de The Brookings Institution fait partie de l'IA et des biais », une série qui explore les moyens d'atténuer les biais possibles et de créer une voie vers une plus grande équité dans l'IA et les technologies émergentes.
Dans le film futuriste Minority Report de 2002, «les forces de l'ordre utilisent une technologie prédictive qui inclut l'intelligence artificielle (IA) pour évaluer les risques afin d'arrêter les meurtriers potentiels avant qu'ils ne commettent des crimes. Cependant, un policier est maintenant l'un des futurs meurtriers accusés et est en fuite du ministère de la Justice pour prouver que la technologie a des défauts. Si vous pensez que ce film de fiction pourrait devenir réalité, alors vous devriez continuer à lire, car l'art est devenu réalité.
La promesse et le péril des technologies émergentes sont sur nous. Pour l'application de la loi, l'IA offre des avancées par rapport aux méthodes précédemment utilisées pour dissuader et résoudre le crime, améliorer l'efficacité, réduire les disparités raciales et potentiellement économiser des ressources liées au capital humain et financier. Actuellement, certaines des technologies d'application de la loi qui utilisent des algorithmes d'apprentissage automatique comprennent les lampadaires intelligents, la surveillance des points chauds, la reconnaissance faciale, la surveillance des drones, le géorepérage, les évaluations des risques et les données des médias sociaux pour mettre fin à la violence des gangs. sur le terrain, ce qui élève des comparaisons avec le film dystopique de 1987 RoboCop. » Les fonctions d'application de la loi et de technologie évoluent également rapidement. En 2017, j'ai mené une étude qui a montré que les civils et les policiers soutiennent considérablement les caméras portées sur le corps comme une prétendue panacée pour améliorer les relations entre la police et la communauté. Maintenant, l'IA peut soi-disant déterminer qui commettra le crime, prédire où le crime se produira et identifier les menaces potentielles, ce qui amplifie sa viabilité perçue liée aux caméras portées par le corps.
Les entreprises technologiques créent déjà des produits commerciaux d'IA avec peu de surveillance ou de réglementation. En outre, ils sollicitent souvent les services répressifs pour participer à des études pilotes et à des essais d'essai en échange de l'utilisation de la nouvelle technologie. Étant donné que de nombreux organismes chargés de l'application des lois sont à court d'argent, la possibilité d'essayer un nouveau jouet brillant est séduisante. Le Royaume-Uni a déployé un logiciel de reconnaissance des passeports malgré le fait qu'il savait qu'il ne fonctionnait pas bien sur les personnes ayant des tons de peau plus foncés et plus clairs. Cependant, cela ne se produit pas seulement en Europe. Comme le montre ce document, les États-Unis sont criblés de ces problèmes. En tentant de concurrencer la Chine, l'Inde et d'autres pays sur la technologie de la justice pénale, les États-Unis compromettent les performances de pointe et mettent potentiellement tous les Américains en danger.
En essayant de concurrencer… d'autres pays sur la technologie de la justice pénale, les États-Unis compromettent les performances de pointe et mettent potentiellement tous les Américains en danger. »
Mais les décideurs politiques peuvent intervenir de manière constructive. Il existe des garanties importantes qui doivent être mises en place afin de protéger les personnes. On pourrait également affirmer que la possibilité pour Amnesty International de déterminer qui sera arrêté par les forces de l'ordre, incarcéré et libéré de prison figure en tête de liste en ce qui concerne la nécessité d'être prudent. Qu'est-ce que les décideurs doivent savoir sur le déploiement de l'IA dans l'application des lois et quelles sont les questions centrales à poser lors de la mise en œuvre des réglementations et des garanties?
Reconnaissance faciale dans le maintien de l'ordre
L'une des principales préoccupations du public concernant l'utilisation de l'IA et d'autres technologies émergentes par les forces de l'ordre est dans le domaine de la reconnaissance faciale. En 2016, plus de la moitié des visages d'adultes américains faisaient partie de bases de données de reconnaissance faciale accessibles aux forces de l'ordre. Pourtant, tout le monde n'est pas inquiet de ce déploiement. Plus de 50% des personnes font confiance à l'utilisation par la police de la reconnaissance faciale, et près de 75% pensent que la reconnaissance faciale identifie avec précision les personnes. Il existe cependant d'importantes différences démographiques. Environ 60% des répondants blancs, comparativement à un peu plus de 40% des répondants noirs, font confiance à l'utilisation par la police de la reconnaissance faciale. L'âge montre un gradient similaire, mais pas dans la direction attendue. Les personnes de moins de 30 ans, par rapport aux personnes de plus de 65 ans, font moins confiance à l'utilisation de la reconnaissance faciale dans les services de police. Le scepticisme des jeunes adultes peut être dû au fait qu'ils ont plus de connaissances sur les capacités de l'IA à manipuler des séquences vidéo réelles et à modifier ce que la personne dit et fait.
En 2016, plus de la moitié des visages d'adultes américains faisaient partie de bases de données de reconnaissance faciale accessibles aux forces de l'ordre. »
Voici le gros casse-tête: seulement 36% des adultes pensent que la reconnaissance faciale est utilisée de manière responsable par les entreprises privées, qui vendent souvent des systèmes de reconnaissance faciale aux forces de l'ordre.
Bien que l'opinion publique soit divisée sur l'utilisation de la reconnaissance faciale pour les services de police, la recherche indique que la reconnaissance faciale souffre d'un biais algorithmique. L'Institut national des normes et de la technologie (NIST) a publié un document montrant que la reconnaissance faciale entraînait des taux de précision inférieurs pour les femmes par rapport aux hommes et pour les Noirs par rapport aux Blancs. Une étude a montré que le sexe des femmes noires était mal classé plus de 33% du temps. En 2019, le logiciel de reconnaissance faciale d'Amazon, Rekognition, a incorrectement qualifié les athlètes professionnels de Boston de criminels. Le logiciel a également étiqueté à tort un législateur californien sur cinq comme des criminels.Le Département de police de New York (NYPD) a manipulé des images floues avec des acteurs comme Woody Harrelson pour obtenir plus de clarté sur les suspects potentiels dans les séquences de surveillance.
Pour ces raisons et d'autres, San Francisco a interdit l'utilisation de la reconnaissance faciale par la police; Oakland et certaines parties du Massachusetts ont rapidement emboîté le pas. À l'inverse, des villes comme Detroit et Chicago ont utilisé un logiciel de reconnaissance faciale avec peu de surveillance au cours des dernières années. La nouvelle réglementation promulguée à Détroit en 2019 limite l'utilisation de la reconnaissance faciale aux photos fixes liées à des crimes violents et à des invasions de domicile. Bien que les forces de l'ordre dans la ville applaudissent la capacité de continuer à utiliser la reconnaissance faciale, les membres du comité de surveillance civil affirment que la technologie est une forme de techno-racisme »dans une ville à prédominance noire qui a des antécédents de brutalité policière et de police problématique. relations avec la communauté. L'une des principales préoccupations est la critique selon laquelle les forces de l'ordre utilisent une technologie peu fiable qui classe mal les résidents de la ville, comme mentionné précédemment.
Bien qu'il soit important que les forces de l'ordre aient la possibilité d'expérimenter de nouvelles technologies, l'IA ne devrait pas aider à prendre des décisions dans les affaires pénales jusqu'à ce que la technologie améliore sa précision. »
En plus de la reconnaissance faciale, il existe d'autres formes de déploiement de l'IA que les décideurs politiques devraient garder à l'esprit. Dans le but d'être la première véritable ville intelligente, San Diego a déployé des lampadaires intelligents en 2016. Présentés comme un moyen de réduire la consommation d'énergie, les capteurs des lampadaires intelligents sont utilisés par les forces de l'ordre pour surveiller le trafic des piétons, des véhicules et des parkings , enregistrer des vidéos de la région et résoudre des crimes. Pour de nombreux habitants de la ville, les lumières ne sont pas le problème. Le déploiement des lumières par la police sans le consentement du public est plutôt le problème le plus important. Trois membres du conseil municipal ont demandé un moratoire sur l'utilisation des lumières.
San Diego est également en train de déployer un drone de qualité militaire au-dessus de la ville en 2020 qui a le potentiel de mener une surveillance et de recueillir des renseignements similaires aux capacités de reconnaissance des forces armées. En 2018, le comté de Rutherford, dans le Tennessee, est devenu le premier au pays à obtenir l'approbation fédérale pour faire voler des drones au-dessus des gens. Les employés de la ville disent que le comté de Rutherford peut utiliser des drones pour lutter contre une crise d'enfouissement, évaluer les dommages causés par les tempêtes, regarder la foule lors d'un rassemblement nationaliste blanc et suivre les fugitifs. Sur la côte est, le NYPD a utilisé des drones lors d'une série de marches et de défilés, notamment la marche des fiertés et le défilé de la journée portoricaine. À cet égard, la série de science-fiction Black Mirror "pourrait devenir prédictive - son épisode Hated in the Nation" comportait une reconnaissance faciale avancée et des nuées de minuscules abeilles ressemblant à des drones avec des capacités létales.
Plusieurs dirigeants d'entreprises informatiques dans des pays comme les États-Unis, la France, l'Australie et le Canada sont extrêmement préoccupés par l'utilisation de l'IA pour les armes autonomes. Certaines personnes s'opposent carrément à l'utilisation des technologies de cette manière, y compris des membres des Nations Unies. Certains dirigeants politiques et commerciaux, universitaires et organisations à but non lucratif soutiennent que des armes entièrement autonomes entraîneront en fait plus de conflits, d'inégalités et un potentiel de guerre accru. Fait intéressant, les gens semblent avoir moins de problèmes avec la technologie actuelle et plus de problèmes avec le manque de réglementation, de transparence, de confidentialité et de consentement.
En 2017, les forces de l'ordre ont utilisé le géorepérage pour surveiller les militants antiracistes de l'Université de Caroline du Nord-Chapel Hill qui protestaient contre une statue confédérée connue sous le nom de Silent Sam. » Le géorepérage est un périmètre virtuel qui permet de surveiller les données des téléphones portables, de collecter des données sur les réseaux sociaux (comme l'emplacement des personnes qui tweetent lors d'une marche ou d'une manifestation) et de collecter des informations sur le site Web pour permettre aux entreprises de faire des annonces géolocalisées. pour les services et les produits. Beaucoup se sont demandé pourquoi le géorepérage était utilisé pour surveiller l'activité des médias sociaux de ces manifestants contre le racisme, mais n'a pas été mis en œuvre pour surveiller les suprémacistes blancs. Le déploiement disparate de ces technologies fait naître des mémoires collectives sur la façon dont la police est utilisée dans les communautés marginalisées. Compte tenu de la décision Carpenter c. Cour suprême des États-Unis, d'autres ont remis en question la légalité de l'utilisation du géorepérage dans cette situation. Les gens ont des préoccupations similaires au sujet de la police des points chauds - dans laquelle les forces de l'ordre ciblent des zones géographiques spécifiques où la criminalité peut être plus concentrée - et se demandent s'il s'agit simplement de profilage racial sous un nom de police prédictif.
Le déploiement disparate de ces technologies fait naître des mémoires collectives sur la façon dont la police est utilisée dans les communautés marginalisées. »
Les services de police ont également accès aux caméras des propriétaires privés si un crime a été commis dans la région. La société de caméras de sonnette la plus importante, Ring, a conclu des partenariats de partage de vidéos avec 400 services de police à travers les États-Unis. Bien que la police devrait avoir la possibilité d'accéder à une grande variété de ressources pour résoudre les délits, il devrait y avoir un moyen plus réglementé et transparent d'accéder à la vidéo et aux données des résidences privées. Par exemple, les propriétaires devraient pouvoir visionner les images qui ont été consultées depuis leur domicile et savoir combien de temps les images seront stockées.
Conformément au Minority Report », certains tribunaux utilisent des algorithmes pour évaluer les risques de récidive avant de libérer des personnes de prison. La liste stratégique des sujets et le modèle de risque de criminalité et de victimisation de Chicago ont utilisé un logiciel d'IA pour prédire qui pourrait commettre le plus de délits après son arrestation. Un rapport de 2020 du Bureau de l'inspecteur général de Chicago a révélé que le logiciel n'était pas fiable et que la qualité des données était médiocre. Dans une ville comme Chicago, ces résultats sont encore plus pertinents compte tenu du niveau de racisme découvert au sein des tribunaux.
L'hypothèse semble être que les technologies utilisant des algorithmes sont mieux à même d'identifier les menaces et les criminels potentiels. Certaines recherches utilisant l'apprentissage automatique pour la libération sous caution montrent comment l'IA peut être utilisée pour réduire la récidive, la criminalité et les disparités raciales dans les peines. Dans le même temps, les algorithmes peuvent reproduire des décisions préjudiciables qui surviennent dans la vie sociale. Cela semblait être le cas à Chicago. Un point clé est qu'omettre la race comme attribut de modèle, ce qui est le cas avec le logiciel de Chicago, peut conduire à plus de biais que de l'inclure. Sans davantage de réglementation et de garanties, la variabilité de ces résultats continuera de se manifester.
faire de la race un attribut du modèle… peut conduire à plus de biais que de l'inclure. »
Compte tenu de ces cas d'utilisation, sur quoi les décideurs devraient-ils se concentrer en matière d'utilisation équitable et de déploiement des systèmes d'IA?


Posté par admin101 à 08:28 - Commentaires [0] - Permalien [#]


05 janvier 2022

Automobile: les Grands Prix

Grand Prix, course automobile sur des autoroutes fermées ou d'autres parcours simulant quelque peu les conditions routières. Ces courses ont débuté en 1906 et sont devenues, dans la seconde moitié du XXe siècle, le type de course le plus populaire au niveau international.

Dès le début, les courses de Grand Prix étaient nationales et contrôlées par les constructeurs automobiles, sous la supervision de ce que l'on a appelé la Fédération Internationale de l'Automobile (FIA), qui fixe les spécifications de toutes les catégories de voitures de course, y compris la Formule 1 pour les Grands Prix. La Formule 1 est généralement plus petite que la voiture utilisée pour les courses de vitesse et est plus maniable. Toutes les courses de Grand Prix sont des voitures à roues ouvertes et monoplaces (après 1924), la taille du moteur, le carburant et d'autres éléments étant contrôlés par la FIA.

Les courses de Grand Prix sont devenues populaires dans le monde entier à partir des années 1950, lorsque des championnats du monde pour les pilotes et pour les constructeurs (fabricants) ont été créés.

Le terme Grand Prix a d'abord été utilisé pour désigner la course automobile la plus importante d'un pays, puis il a été utilisé pour des événements autres que les courses de Formule 1, ainsi que pour des événements dans d'autres sports. La première utilisation de ce terme dans le sport organisé a probablement été le nom de la course de chevaux du Grand Prix français, qui a eu lieu pour la première fois en 1863. Dans l'usage actuel, les courses de Grand Prix sont littéralement celles qui s'appliquent au championnat du monde des pilotes, bien que le terme soit utilisé pour décrire d'autres événements moins prestigieux. Plus de 15 Grand Prix de ce type sont organisés chaque année dans des pays du monde entier.

Pour la place des courses de Grand Prix dans l'histoire de la course automobile, voir course automobile.

Après la première course du Grand Prix de France en 1906 au Mans, un lieu souvent utilisé à l'origine et également le site des 24 heures du Mans, disputées à partir de 1923, la course a été disputée en 1907 et 1908, puis pas avant 1912. Le premier Grand Prix d'Italie a eu lieu en 1908. Lorsque les courses ont repris après la Première Guerre mondiale, les Grands Prix de France et d'Italie ont été organisés en 1921. Le Grand Prix de Belgique a débuté en 1925, celui d'Allemagne en 1926, et celui de Monaco en 1929. Les clubs nationaux avaient formé un organe directeur en 1904, l'Association Internationale des Automobiles Clubs Reconnus (rebaptisée Fédération Internationale de l'Automobile en 1946). Les voitures de chaque nation étaient toutes peintes d'une seule couleur pour faciliter leur identification : Françaises, bleues ; italiennes, rouges ; allemandes, blanches ; et britanniques, vertes. Les inscriptions étaient faites par les constructeurs, généralement deux ou trois voitures, et les pilotes étaient professionnels. Les courses se déroulaient sur des circuits fermés de 5 ou 6 km par tour, avec des distances totales de 250 à 650 km. Jusqu'en 1934, ce sont les constructeurs français et italiens qui remportent le plus de victoires, mais pendant le reste des années 1930, les constructeurs allemands dominent. Les courses ont repris en 1947, et à partir de la fin des années 1950, simulateur F1 Lyon les voitures de fabrication britannique ont dominé. En 1950, un championnat du monde des pilotes a été institué, impliquant généralement le décompte des points pour une quinzaine de Grands Prix, dont ceux de Monaco, de Belgique, des Pays-Bas, de France, de Grande-Bretagne, d'Allemagne, d'Italie, du Mexique, d'Afrique du Sud, du Canada et des États-Unis. Un championnat pour les constructeurs de voitures de Formule I a été lancé en 1955.

f1

Posté par admin101 à 16:11 - Commentaires [0] - Permalien [#]

08 décembre 2021

De la terre à la musique

Hélène Barucq: Je suis un produit pur jus de l'université. J'ai fait la fac de maths à Bordeaux. J'ai été tentée par l'informatique, mais mes premiers cours cours m'en ont un peu dégoutée. Et puis, j'ai «rencontré les ondes» dans un projet avec le CEA et Bernard Hanouzet, et comme le sujet m'a conquis, j'ai choisi ce domaine pour ma thèse sous sa responsabilité. Je découvrais des dialogues fantastiques entre physique et mathématiques, et dans le même temps le plaisir du travail en équipe. J'ai changé alors d'avis sur l'informatique. C'est passionnant d'expliquer des phénomènes physiques avec des équations mathématiques. Mais c'est encore plus génial, cela prend vraiment son sens pour moi, quand on transforme les équations, les modèles mathématiques, en programmes informatiques. En réalisant des simulations numériques assistées de méthodes de visualisation avancées, sur peut alors voir un phénomène physique pour finalement en comprendre les moindres détails.
J'ai obtenu un poste de maître de conférence à l'Université de Pau, un peu par hasard. C'est là que j'ai commencé à travailler sur des sujets concrets, dans une collaboration avec Total. Et puis j'ai découvert Inria, et obtenu un poste de chercheuse dans l'institut. Cela m'a permis de monter une équipe à Pau. Je me dis parfois que j'aurais aussi bien pu devenir informaticienne parce que les logiciels me fascinent. Aujourd'hui, j'adore mon travail.
Nous avons entendu dire qu'une de tes caractéristiques, c'est la fidélité?
Oui! Je suis toujours à Pau, toujours à Inria. Certaines de mes collaborations durent depuis des années! Par exemple, je travaille depuis bientôt vingt ans avec Total et Henri Calandra. Nos objectifs ont bien évidemment évolué au cours de ces années, nous conduisant à travailler sur des sujets très variés. Aujourd'hui, nous travaillons ensemble sur des questions liées à la transition énergétique. Surtout, je suis restée fidèle au domaine, les équations des ondes. Bien sûr, j'enrichis sans cesse le groupe de gens avec qui je collabore; ils deviennent souvent des amis. Et pour les ondes, je considère les nouvelles applications, les nouveaux défis.
Que sont les ondes? En quoi consiste ton travail de chercheuse?
Quand une perturbation physique se produit, elle a provoqué une seule qui se propage en modifiant les milieux qu'elle traverse. Quand on jette un caillou dans l'eau, ça crée une onde à la surface. Quand on pince la corde d'une guitare, cela provoque une onde acoustique que les êtres humains à proximité ressentent avec des capteurs situés dans l'oreille. Il existe différents types d'ondes comme les ondes mécaniques qui se propagent à travers une matière physique qui se déforme, ou les ondes électromagnétiques et gravitationnelles qui elles n'ont pas besoin d'un tel milieu physique.
Les études du sol: simulation de la propagation d'une onde acoustique harmonique dans un milieu terrestre sur un domaine de taille 20 x 20 x 10 kilomètres cubes. Auteur fourni
Quelle est la place des mathématiques et de l'informatique dans l'étude du sous-sol?
Supposons que nous voulions cartographier un sous-sol pour découvrir des réservoirs d'eau pour de la géothermie. On pourrait faire des forages sans modélisation préalable; c'est gagné et ça peut être dangereux: on a vu des forages causer des éboulements très loin de l'endroit où ils étaient réalisés. Plutôt que faire ça, on va utiliser, par exemple, un camion qui vibre en cadence et générés des ondes. Les ondes se propagent dans le sol en gardant des traces de ce qu'elles rencontrent. Pour cartographier le sous-sol, on aimerait découvrir les discontinuités dans la composition de ce sous-sol, et ce qui se trouve entre elles. Pour ça, on va mesurer avec des capteurs les ondes réfléchies et analyseur ces données.
Cela demande de développer des modèles mathématiques et des méthodes numériques avancées. Cela demande aussi des calculs qui sont souvent réalisés de manière parallèle pour obtenir des simulations précises. En particulier, la détermination des paramètres physiques est un problème d'optimisation qui n'est pas simple car il admet des optimaux locaux qui peuvent ralentir ou empêcher la méthode de converger.
Mais on peut faire des trucs sympas. Par exemple, quand un train roule, les frottements sur les rails génèrent des ondes sonores, «tougoudoum, tougoudoum…». En analysant ces sons, on imagine bien qu'on peut détecter des malformations des rails, des traversées ou du ballast. En Chine, une équipe travaille même à faire des reconstitutions des propriétés du sous-sol à partir des ondes générées par un train. Juste en analysant le son du train!
Il existe des tas d'autres applications de ce type d'analyse. Par exemple, en médecine, l'analyse de la propagation d'une onde sonore peut donner des indications sur la présence d'une tumeur, et le même principe peut être appliqué pour réaliser une échographie.
imagerie sismique par inversion des formes d'ondes: en partant d'un milieu initial représentant le sous-sol (en haut), l'algorithme de minimisation itérative reconstruit un milieu (en bas à gauche) qui permet de reproduire les mesures. Dans cet exemple synthétique, le modèle sous-terrain est connu et représenté en bas à droite. Auteur fourni
Quels sont les freins de tels travaux?
Le principal frein est que souvent les données sont très bruitées. Pour reprendre l'analogie du cambrioleur, c'est comme si la pluie avait presque effacé les empreintes.
Un autre frein tient dans les besoins de calcul nécessaires exigés par la simulation. Si vous souhaitez cartographier un sous-sol dans un cube de 5 km d'arête, c'est véritablement des calculs massifs. On peut chercher de manière brutale à faire de plus en plus de calculs mais sur atteint rapidement des limites. On peut aussi essayer d'être astucieux avec les mathématiques ou la simulation. Dans un travail récent, par exemple, nous séparons un grand volume en petits blocs que nous analysons séparément; ensuite nous «recollons» les morceaux. On pourrait utiliser des bases de données de petits blocs comme ça, et des techniques de machine learning. Il faut essayer d'être la force brute, penser autrement.
Sur quoi porter principalement tes travaux aujourd'hui?
Je travaille sur l'héliosismologie, l'étude du soleil. Le soleil chante en permanence. Il produit des ondes acoustiques, des ondes à basse fréquence, avec une longue période, que l'on peut détecter par effet Doppler. Leur étude pourrait nous permettre de remonter à l'intérieur du soleil. En comprenant comment il is built, on espère apprendre à prévoir les irruptions solaires qui peuvent être dangereuses notamment pour nos satellites.
Spectre de puissance solaire correspondant à la propagation d'ondes acoustiques dans le soleil en fonction de la fréquence et du mode. Auteur fourni
On dispose déjà de cartographies du soleil, on peut même en trouver sur Internet. Mais on les aimerait beaucoup plus détaillé. Il faut bien voir la difficulté: le soleil n'a pas de surface comme la terre. La vitesse du son augmente avec la profondeur, tout est en permanence en mouvement.
Ce qui est intéressant pour nous c'est que les méthodes mathématiques à développer reposent sur les mêmes concepts que celles que nous utilisons dans le cadre de la propagation d'ondes dans le sol. Par contre, la physique est différente, plus complexe, par exemple, elle doit tenir compte du champ magnétique.

Posté par admin101 à 08:36 - Commentaires [0] - Permalien [#]

07 octobre 2021

Nutrition: les limites du sucre

Une tempête de feu a récemment éclaté à propos d'un article paru dans les Annals of Internal Medicine qui a révélé que les conseils officiels limitant le sucre dans les régimes étaient basés sur des preuves de qualité «faible» ou «très faible». Parce qu'un groupe de l'industrie alimentaire avait financé l'étude, un grand nombre de critiques ont accusé les auteurs de déformer la science pour saper les directives nutritionnelles et faire en sorte que le sucre semble moins nocif qu'il ne l'est en réalité. Un éminent professeur de nutrition a qualifié l'article de "honteux". "C'était vraiment une tentative de saper le processus scientifique", a déclaré un autre.

Perdue dans ce torrent de critiques se trouvait toute discussion significative sur la science elle-même. Quelle que soit sa source de financement, le document avait-il raison de dire qu'il n'y a pas suffisamment de preuves pour recommander de limiter le sucre ? Et les directives officielles ont-elles même de l'importance, puisque nous savons à peu près que le sucre est mauvais pour nous ?

L'article des Annales a examiné une douzaine de directives sur le sucre adoptées par les gouvernements du monde entier depuis 2002, y compris les directives diététiques pour les Américains, qui l'année dernière a recommandé de limiter la consommation de sucre à 10 pour cent des calories. On pourrait supposer que de tels conseils sont basés sur un vaste corpus de recherches rigoureuses. Mais l'étude des Annals, qui comprenait tous les articles répertoriés dans les bibliographies des différentes directives elles-mêmes, a affirmé que les revues à ce jour avaient surestimé les preuves.

Dans la revue la plus rigoureuse sur le sucre et le poids, par exemple, seuls cinq essais d'une durée de six mois ou plus ont pu être trouvés, sur un total de seulement 1 245 personnes. Selon les auteurs des Annales, cette revue a décrit les données comme plus cohérentes qu'elles ne l'étaient en réalité et n'a pas pris en compte de manière adéquate les preuves indiquant que les études dans lesquelles le sucre s'est avéré n'avoir aucun effet néfaste pourraient avoir été supprimées de la publication.

De plus, des données moins rigoureuses provenant d'études d'observation ont été largement jugées « incohérentes ». Parfois, le sucre était associé à des problèmes de santé – prise de poids, diabète de type 2 et carie dentaire – mais parfois non.

« Dans l'ensemble, je dirais les lignes directrices ne sont pas dignes de confiance », m'a dit Bradley Johnston, auteur principal de l'étude et professeur adjoint d'épidémiologie clinique et de biostatistique à l'Université McMasters.

La découverte de l'étude devrait surprendre quiconque évite le sucre depuis des années déjà. Le sucre est une puissante source de glucose qui, avec le temps, semble faire des ravages sur le métabolisme et ouvrir la voie à l'obésité et au diabète. Un grand nombre de preuves issues d'essais ont montré que lorsque la consommation de glucides est réduite, ces maladies commencent à s'inverser. De plus, compte tenu de tous les titres récents sur les effets néfastes du sucre, du film de Katie Couric Fed Up au passage des taxes sur les sodas dans plusieurs villes, on pourrait être pardonné de supposer que les preuves condamnant le sucre doivent être un fait conclu.

Pourtant, les auteurs des Annales disaient que ce n'était pas le cas. La réaction au document des experts en nutrition et des groupes de défense a été rapide, les critiques se concentrant sur le talon d'Achille du document : il avait été payé par l'Institut international des sciences de la vie, qui reçoit 60% de son financement de 400 membres de l'industrie, dont certains, comme Coca-Cola, PepsiCo et Mars, qui ont tout à gagner d'une étude remettant en question les plafonds du sucre.

"Il s'agit d'un exemple classique de recherche financée par l'industrie visant un objectif et un seul objectif : jeter le doute sur la science établissant un lien entre les régimes riches en sucres et une mauvaise santé", a déclaré Marion Nestlé, éminent professeur de nutrition à l'Université de New York. Radio publique nationale. Dean Schillinger, chef de la division de médecine interne générale du San Francisco General Hospital, a déclaré au New York Times : « Ils détournent le processus scientifique de manière fallacieuse pour semer le doute et mettre en danger la santé publique. »

Schillinger, avec sa collègue Cristin Kearns, a également écrit un éditorial dans Annals, qui a comparé les auteurs de la revue du sucre à des laquais embauchés par l'industrie du tabac pour être des « marchands du doute » sur les risques pour la santé de fumeur.

La manipulation de la science par l'industrie est évidemment une préoccupation constante et sérieuse. C'est en partie pourquoi la rédactrice en chef des Annales, Christine Laine, a invité cet éditorial. «Je voulais montrer les deux côtés du problème», m'a-t-elle dit, bien qu'elle ait déclaré qu'elle considérait l'éditorial comme inhabituellement « strident et hostile » pour une revue universitaire. En effet, Schillinger et Kearns militent tous deux à temps partiel contre le sucre ; ils écrivent des articles et effectuent d'autres travaux pour Sugar Science, un groupe consacré à l'éducation du public sur les dangers du sucre pour la santé. "Cela m'a montré que les conflits d'intérêts ne sont pas seulement financiers mais aussi intellectuels", a déclaré Laine, qui a ajouté des informations sur les affiliations des auteurs à Sugar Science à l'éditorial après qu'un lecteur les ait portés à son attention, dit-elle.

Ironiquement, saper un article scientifique en se concentrant sur sa source de financement a principalement été utilisé dans le passé pour abattre les sceptiques du sucre. Par exemple, lorsque le professeur de nutrition britannique John Yudkin a suggéré le sucre comme coupable alimentaire au début des années 1970, le chercheur de l'Université du Minnesota Ancel Keys, un défenseur clé de l'hypothèse concurrente, selon laquelle les graisses alimentaires étaient responsables de problèmes de santé chroniques, a accusé Yudkin d'avoir fait de la « propagande », liée à des « bailleurs de fonds commerciaux [qui] ne sont pas découragés par les faits.

Maintenant que la plus haute autorité nationale en matière de nutrition, les US Dietary Guidelines, a supprimé les plafonds sur les matières grasses totales et a commencé à condamner le sucre à la place, le débat public se concentre également de plus en plus sur l'industrie sucrière, à tel point que d'autres acteurs de l'industrie s'échappent. examen minutieux. On doit se demander, par exemple, pourquoi il n'y a pas eu d'indignation similaire contre un autre article récent, dans The BMJ, avec des conclusions favorables pour les huiles végétales, dont près de la moitié des auteurs étaient de véritables employés du géant fabricant d'huiles végétales Unilever. Ce serait comme si les travailleurs de Mars, Inc. publiaient une étude sur les bienfaits du sucre pour la santé. Pourtant, ce conflit d'intérêts considérable a largement passer devant les nombreux journalistes qui couvrent l'histoire.

Pour être clair, le financement de l'industrie peut absolument dissuader la bonne science; la promotion du tabac en sera toujours la quintessence. Mais l'influence du financement n'est pas invariable : alors qu'une méta-analyse a révélé que les sources de financement influencent les conclusions des articles sur la nutrition, une autre, par un critique féroce du financement de l'industrie, paradoxalement, ne l'a pas fait. Une bonne dose de scepticisme quant au financement de toutes les sources, y compris les gouvernements et autres institutions, qui peuvent avoir leurs propres hypothèses préférées, est justifiée, tant qu'elle n'écarte pas la science ou ne met pas fin à un débat légitime.

Schillinger et Kearns ont eu raison d'émettre des doutes. Les défenseurs du sucre ont, depuis le début du 20e siècle, travaillé avec diligence pour promouvoir leur produit, de sorte que le président Franklin Roosevelt, au milieu des années 1930, a déclaré que le lobby du sucre était « le groupe de pression le plus puissant qui soit descendu sur la capitale nationale » de son vivant. L'étendue de la manipulation de l'industrie, par le biais de campagnes publicitaires et d'efforts pour déformer la science, est décrite par le journaliste Gary Taubes dans son nouveau livre, The Case Against Sugar.

Pourtant, Taubes pense que toute industrie disposant d'un budget de relations publiques a tenté à peu près la même chose. Et il est franc sur le manque de preuves rigoureuses contre le sucre, déclarant dans l'introduction de son livre: «Je vais concéder à l'avance un point clé que ceux qui défendent le rôle du sucre dans notre alimentation feront invariablement. … [I] il ne peut pas être établi définitivement, avec la science actuelle, que le sucre est uniquement nocif.

Des essais cliniques sur le sucre sont possibles ; c'est juste que très peu ont été faits. De nouvelles preuves suggèrent que l'industrie sucrière a peut-être étouffé ces enquêtes, mais Taubes pense que davantage de preuves soutiennent l'explication selon laquelle, pendant des décennies, un monolithe de scientifiques en nutrition s'est véritablement préoccupé de manière obsessionnelle des graisses et du cholestérol, ce qui a simplement effacé tout le reste. Les Les National Institutes of Health (NIH) ont dépensé des milliards de dollars dans des essais cliniques à grande échelle, essayant tous d'attribuer les maladies chroniques aux graisses alimentaires et au cholestérol. En fait, le sucre était tellement insoupçonné pendant tant d'années que les principales études d'observation financées par le NIH n'ont même pas pris la peine de le mesurer.

Bien que les preuves à ce jour ne montrent aucun avantage du sucre et un signal clair de préjudice, il n'y a pas eu assez de temps pour financer et mener des essais définitifs. Pendant ce temps, les gouvernements sentent naturellement qu'ils ne peuvent pas attendre. Face à la panique face à la montée continue et incessante des taux d'obésité et de diabète sans solution en vue, ils sont allés de l'avant et ont adopté des directives en matière de sucre fixées à des seuils exacts, de 10 % ou 5 % des calories. Ce conseil est manifestement bien intentionné. Pourtant, si, comme le conclut l'article des Annales, les experts contournent les normes scientifiques en adoptant des directives basées sur des preuves faibles, l'ensemble du processus d'élaboration des directives est effectivement édulcoré. Et le besoin de conseils fiables n'est pas question abstraite; en effet, tout, de notre tour de taille à la possibilité de manger des œufs au petit-déjeuner, en dépend.

Comme les Américains le savent bien, il y a eu de nombreux revirements dans nos directives ces dernières années – sur le cholestérol alimentaire, sur les matières grasses totales, week-end gastronomique sur l'opportunité de prendre un petit-déjeuner pour maintenir un poids santé. Il s'agissait toutes de directives officielles basées sur des preuves faibles qui, lorsqu'elles ont été testées dans des essais cliniques, se sont avérées injustifiées. Il s'est avéré que les gens évitaient généralement les jaunes d'œufs, le homard et la graisse, en vain, et que sauter complètement le petit-déjeuner pourrait en fait être la meilleure option pour perdre du poids.

Les cas de volte-face sur les conseils nutritionnels non seulement érodent la confiance du public, mais font penser aux gens que la science fondamentale elle-même est imparfaite, ce qui, pour la plupart, n'est pas. Au lieu de cela, le problème central a été que les experts et les décideurs politiques ont porté un jugement avant que cette bonne science ne soit faite. Et une fois qu'un jugement est codifié en tant que politique, il est difficile de l'abroger. Ce fut le cas, par exemple, avec le régime pauvre en graisses, qui, bien qu'adopté comme ligne directrice aux États-Unis en 1980, n'a pas été réellement étudié dans les essais pendant plus d'une décennie. Ce genre d'erreur, au pire, est potentiellement mortelle : en effet, le conseil faible en gras, en déplaçant la consommation vers les glucides tels que les céréales et le sucre, est désormais considéré comme une cause probable des épidémies d'obésité et de diabète.

Posté par admin101 à 16:47 - Commentaires [0] - Permalien [#]

15 septembre 2021

Redéfinir les trajectoires des villes

Ces villes en croissance montrent que le chemin de la prospérité n'est ni évident ni uniforme. Ils se sont appuyés sur leurs avantages existants mais, ce faisant, ont renforcé leurs capacités et leur savoir-faire uniques. D'autres endroits peuvent en prendre note. Dans les régions qui ont souffert de stagnation et de fuite des cerveaux depuis la récession, tenter de chasser la croissance de l'emploi et les recettes fiscales en reproduisant les grappes industrielles d'autres villes ou en ciblant des industries avancées étroitement définies est une recette pour des efforts et des ressources mal placés. En comprenant la nuance et la trajectoire de la structure industrielle unique d'une ville, les dirigeants peuvent tracer une voie vers une prospérité partagée et une croissance économique inclusive.
Cette prémisse - à savoir que les dirigeants régionaux peuvent bénéficier d'outils leur permettant de prendre des décisions stratégiques - motive les efforts de l'initiative Workforce of the Future à Brookings. Suite à notre rapport 2019 sur l'évolution industrielle des régions à travers le pays, des villes en croissance qui fonctionnent pour tous », l'initiative a tourné son attention pour rendre les résultats digestes et exploitables pour les leaders régionaux à travers le pays. La visualisation, Une feuille de route pour créer de bons emplois, représente le premier jalon de cet effort.
Nos résultats confirment qu'une approche fondée sur les capacités »renforcerait le développement économique régional. Les capacités sont les qualités difficiles à mesurer d'une ville qui permettent aux industries d'apparaître et de prospérer dans un endroit donné. Ils comprennent tout, de l'infrastructure aux talents et aux institutions. Les villes, travaillant en partenariat avec des entreprises et des parties prenantes de la communauté, peuvent plus efficacement créer, conserver et développer des industries lorsqu'elles développent les capacités sous-jacentes dont les entreprises ont besoin, plutôt que de tenter sans discernement d'attirer les entreprises par des allégements fiscaux et des incitations
L'examen de la structure industrielle de plus de 900 zones métropolitaines et micropolitaines couvrant diverses régions, cultures et priorités à travers les États-Unis a produit des aperçus de données qui peuvent éclairer les stratégies de développement économique régional. Les villes sophistiquées peuvent choisir de doubler sur des industries complexes pour accélérer la croissance, tandis que les villes moyennes peuvent choisir de diversifier leurs économies et d'élargir leur ensemble de capacités. Toutes les villes peuvent vouloir créer de bons emplois qui fournissent des tremplins à leur main-d'œuvre. Dans chaque cas, les planificateurs régionaux doivent tenir compte de leur structure économique existante.
La visualisation montre trois stratégies. Pour 25 villes sélectionnées, chaque stratégie produira un ensemble différent d'industries prioritaires.
Construire des industries avancées pour encourager la croissance de l'emploi. Les zones métropolitaines les plus avancées, comme New York, San Francisco ou Seattle, hébergent les industries les plus complexes exigeant les capacités les plus sophistiquées. Ils continueront d'innover, inventant de nouveaux produits et services que le monde n'a pas encore vus. Dans des régions telles que celles-ci, les urbanistes peuvent mieux inaugurer la croissance future en dirigeant leurs efforts et leurs ressources pour renforcer les capacités exigées par les industries les plus avancées et les plus complexes.
Diversifiez pour une croissance résiliente. Les régions à complexité économique moyenne et faible se développent en se diversifiant dans des secteurs de plus en plus complexes. Comprendre cette dépendance au développement industriel régional peut dépendre des décideurs politiques de précieuses informations, leur permettant ainsi de tracer leur propre voie vers une prospérité partagée. L'utilisation de leurs ressources limitées pour faire des efforts concertés et stratégiques vers des industries réalisables peut permettre aux villes de plier leur trajectoire économique vers une croissance résiliente.
Cibler les industries de haute qualité pour favoriser délibérément une croissance inclusive. Quel que soit l'état d'une économie régionale, la promotion de bons emplois figure en bonne place parmi les priorités régionales. Mais comment les dirigeants locaux peuvent-ils identifier les industries qui ont une qualité d'emploi, sont réalisables et améliorer la complexité de la ville? En identifiant les industries qui offrent un salaire décent et des avantages sociaux aux travailleurs sans diplôme et en superposant des informations sur la faisabilité de cette industrie pour un lieu donné, nos méthodes visent à fournir aux planificateurs régionaux les outils dont ils ont besoin pour offrir de bons emplois à leur main-d'œuvre.
Cette liste de priorités n'est nullement exhaustive. Les villes peuvent adapter cette méthodologie sous-jacente pour poursuivre d'autres objectifs, tels que la priorisation des industries vertes ou la création de professions qui absorbent les travailleurs déplacés.
En comprenant la nuance et la trajectoire de la structure industrielle unique d'une ville, les dirigeants peuvent tracer une voie vers une prospérité partagée et une croissance économique inclusive.
À mesure que les régions mettent en œuvre la totalité ou l'une des trois stratégies, leurs efforts devraient également viser à aider les travailleurs à faire la transition pour occuper des emplois en croissance et prospérer. Nos recherches confirment que le talent est roi parmi les capacités dont les industries ont besoin pour être compétitives, et la concentration de talents locaux peut donner aux endroits un avantage concurrentiel.
De nombreuses régions reposent sur un bassin de potentiel inexploité. Ils peuvent canaliser le talent latent des chômeurs et des travailleurs sous-employés en comprenant les cheminements de carrière et en offrant une requalification ciblée, plutôt que de laisser les travailleurs reculer dans des emplois à bas salaires. Ceux qui alignent la main-d'œuvre et le développement économique dans un cycle vertueux peuvent récolter les fruits d'une politique de croissance économique centrée sur les personnes et basée sur le lieu.


Posté par admin101 à 08:08 - Commentaires [0] - Permalien [#]

24 juin 2021

Les avions scramjet

Un avion supersonique vole plus vite que Mach 1, voire la vitesse du son, tandis qu'un avion hypersonique est un avion capable de voler à Mach 5, soit 5 fois la vitesse du son. À la pression atmosphérique au degré de la mer, avec des plages de température de l'air de 59 ° F (15 ° C), le taux du son est d'environ 760 mph (1225 km / h). Le vol aérien hypersonique est possible depuis les années 1950 retardées, avant qu'il ne puisse s'avérer pratique, les développeurs devront s'attaquer à certaines des difficultés physiques liées au vol aérien à très haute vitesse. Le X-15. Le 14 octobre 1947, le major Charles E. "Chuck" Yeager a brisé le mur du son à l'intérieur d'un avion d'étude propulsé par une fusée Bell XS-1. 5 ans plus tard, en 1952, les responsables du Comité consultatif national pour l'aéronautique (NACA) ont entrepris de construire un engin capable de voler hypersonique. Cet engin était le X-15, conçu par North United States Aviation. Le By-15 a fait ses débuts le 15 octobre 1958 et entre le 8 juin 1959 et le 24 octobre 1968, plus d'une douzaine de pilotes dans trois By-15 ont effectué 199 missions, passant successivement Mach 3 (1960), Mach 4 et 5 (1961) et Mach 6 (1963). Expérimenté le programme By-15 en cours, il aurait pu donner le modèle, non seulement pour le vol aérien hypersonique sur Terre, mais aussi pour le vol aérien spatial. Néanmoins, plusieurs conditions ont mis fin au programme. Un seul était une modification de la gestion comme NACA, établi en 1917, a fourni le chemin en 1958 vers la National Aeronautics and Space Management (NASA). Un autre changement était l'objectif gouvernemental urgent de vaincre les Soviétiques dans la course à la salle après le lancement de choc du satellite Spoutnik en 1958. Désireux de mettre le premier homme sur la Lune, You.S. les pionniers ont contourné la conception de vol X-15 pour soutenir les fusées. Le X-15 a été poussé par les contraintes physiques réelles du vol hypersonique. Le 3 octobre 1967, l'aviateur Peter Knight a atteint Mach 6,7 et a presque incinéré la queue de son art. Six semaines plus tard, le 15 novembre, baptême en avion de chasse le vol séparé du 3e X-15 indiquait la durée de vie du pilote Mike Adams. Le By-15 a effectué son dernier vol le 24 octobre 1968. Autres recherches hypersoniques. Au moment où le X-15 a cessé la procédure, les États-Unis ont déjà créé deux autres avions extraordinaires, l'U2 et le SR-71. Ce dernier, introduit en décembre 1964, était capable d'obtenir Mach 3, une vitesse qui, bien que rapide, n'avait pas été hypersonique. Au début des années 1990, le SR-71 a été retiré de la collection pendant longtemps en raison du coût plus élevé de le garder en l'air, et cette interruption en éventail rapporte que le You.S. Air Pressure (USAF) et le Département de la protection (DOD) élaboraient un remplaçant. Depuis 1979, on parle du successeur putatif du SR - 71, identifié comme "Aurora" avec un nom de code involontairement inclus dans une demande de budget du Pentagone en 1985. Cependant, l'USAF et le DOD ont nié à plusieurs reprises qu'ils créaient un remplaçant pour le SR-71, qui est retourné en paiement de commission en 1995. L'étude sur le vol hypersonique est néanmoins en cours. Les concepteurs aérospatiaux ont promu l'idée de l'avion hypersonique Worldwide Array Recce / Strike HyperSoar, qui pourrait atteindre des vitesses allant jusqu'à Mach 10 et transporter une charge utile presque deux fois plus grande que celle d'un art subsonique. Volant à une altitude d'environ 130000 pieds (39 624 m), il sauterait à travers le meilleur revêtement de l'atmosphère terrestre comme une roche sautant sur toute la surface de l'eau. En juin 2001, la NASA a testé le X-43A, un art hypersonique doté d'un moteur spécial appelé scramjet, qui apportait les uns avec les autres des caractéristiques de chacun un turboréacteur conventionnel avec une fusée. Elle devait être lancée par une fusée Pegasus, mais la fusée a échoué pendant le vol d'essai de la compagnie aérienne. La NASA continue d'opérer sur des engins hypersoniques, avant que ce type d'avions ne puisse être produit opérationnel, les concepteurs devront créer un moyen de contrôler les températures afin d'empêcher l'art de s'enflammer parce qu'il rentre dans l'atmosphère.

Posté par admin101 à 16:28 - Commentaires [0] - Permalien [#]