Artwork

Player FM - Internet Radio Done Right

388 subscribers

Checked 9h ago
Προστέθηκε πριν από nine χρόνια
Το περιεχόμενο παρέχεται από το Choses à Savoir. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Choses à Savoir ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !
icon Daily Deals

Pourquoi un escalier peut-il être inconfortable ?

2:23
 
Μοίρασέ το
 

Manage episode 471189087 series 119522
Το περιεχόμενο παρέχεται από το Choses à Savoir. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Choses à Savoir ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Si vous avez déjà ressenti une gêne en montant ou descendant un escalier, cela peut être dû à une conception qui ne respecte pas certaines règles ergonomiques. L'une des principales est la loi de Blondel, une règle mathématique qui définit le rapport idéal entre la hauteur et la profondeur des marches pour assurer un confort optimal.


1. La loi de Blondel : un équilibre entre hauteur et profondeur


La loi de Blondel, formulée par l'architecte français Nicolas-François Blondel au XVIIᵉ siècle, établit la relation suivante entre les dimensions d’un escalier :

M = 2h + g

Où :

- H est la hauteur de la marche (contremarche),

- G est la profondeur de la marche (giron).


Cette équation reflète la longueur moyenne d’un pas humain, qui varie entre 60 et 64 cm. Ainsi, pour garantir un mouvement fluide et naturel, un escalier doit avoir un giron et une hauteur proportionnés :


- Une hauteur de marche idéale est d’environ 17 cm.

- Un giron confortable doit être d’environ 28 à 30 cm.


Si ces proportions sont mal respectées, l’escalier devient inconfortable et potentiellement dangereux.


2. Pourquoi certains escaliers sont inconfortables ?


Certains escaliers peuvent sembler particulièrement pénibles ou dangereux à utiliser pour plusieurs raisons :


a) Un giron trop court

Si les marches sont trop peu profondes (moins de 25 cm), il est difficile d’y poser le pied correctement. Cela force le marcheur à marcher sur la pointe des pieds, ce qui fatigue rapidement les muscles des jambes et augmente le risque de chute.


b) Une hauteur excessive

Si les contremarches dépassent 18 cm, chaque pas demande un effort supplémentaire pour lever la jambe plus haut. Cela devient rapidement épuisant, notamment pour les personnes âgées ou les enfants.


c) Les escaliers en colimaçon ou en angle

Les escaliers tournants posent un problème particulier : les marches ne sont pas uniformes. Près de l’axe central, le giron est extrêmement réduit, ce qui force les utilisateurs à placer le pied en biais ou à compenser avec l’autre jambe. Cela perturbe l’équilibre et rend l’ascension plus fatigante.


d) Des matériaux inadaptés

Les surfaces glissantes (marbre, métal poli) ou des marches irrégulières ajoutent un inconfort supplémentaire en perturbant la stabilité et la perception de l’escalier.


3. Conséquences d’un escalier mal conçu


Un escalier inconfortable peut entraîner :

- Une fatigue accrue, car il nécessite plus d’effort musculaire.

- Un risque accru de chute, notamment si la hauteur ou la profondeur ne sont pas adaptées.

- Un inconfort psychologique, rendant son usage stressant, notamment pour les personnes sujettes au vertige.


Conclusion


Un escalier bien conçu doit respecter des principes ergonomiques comme la loi de Blondel, garantissant un équilibre entre hauteur et profondeur des marches. Les écarts à cette règle, notamment dans les escaliers trop raides ou mal proportionnés, augmentent l’effort physique et le risque d’accident. C’est pourquoi, au-delà de l’esthétique, un escalier doit avant tout être pensé pour le confort et la sécurité des usagers.


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  continue reading

3442 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 471189087 series 119522
Το περιεχόμενο παρέχεται από το Choses à Savoir. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Choses à Savoir ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Si vous avez déjà ressenti une gêne en montant ou descendant un escalier, cela peut être dû à une conception qui ne respecte pas certaines règles ergonomiques. L'une des principales est la loi de Blondel, une règle mathématique qui définit le rapport idéal entre la hauteur et la profondeur des marches pour assurer un confort optimal.


1. La loi de Blondel : un équilibre entre hauteur et profondeur


La loi de Blondel, formulée par l'architecte français Nicolas-François Blondel au XVIIᵉ siècle, établit la relation suivante entre les dimensions d’un escalier :

M = 2h + g

Où :

- H est la hauteur de la marche (contremarche),

- G est la profondeur de la marche (giron).


Cette équation reflète la longueur moyenne d’un pas humain, qui varie entre 60 et 64 cm. Ainsi, pour garantir un mouvement fluide et naturel, un escalier doit avoir un giron et une hauteur proportionnés :


- Une hauteur de marche idéale est d’environ 17 cm.

- Un giron confortable doit être d’environ 28 à 30 cm.


Si ces proportions sont mal respectées, l’escalier devient inconfortable et potentiellement dangereux.


2. Pourquoi certains escaliers sont inconfortables ?


Certains escaliers peuvent sembler particulièrement pénibles ou dangereux à utiliser pour plusieurs raisons :


a) Un giron trop court

Si les marches sont trop peu profondes (moins de 25 cm), il est difficile d’y poser le pied correctement. Cela force le marcheur à marcher sur la pointe des pieds, ce qui fatigue rapidement les muscles des jambes et augmente le risque de chute.


b) Une hauteur excessive

Si les contremarches dépassent 18 cm, chaque pas demande un effort supplémentaire pour lever la jambe plus haut. Cela devient rapidement épuisant, notamment pour les personnes âgées ou les enfants.


c) Les escaliers en colimaçon ou en angle

Les escaliers tournants posent un problème particulier : les marches ne sont pas uniformes. Près de l’axe central, le giron est extrêmement réduit, ce qui force les utilisateurs à placer le pied en biais ou à compenser avec l’autre jambe. Cela perturbe l’équilibre et rend l’ascension plus fatigante.


d) Des matériaux inadaptés

Les surfaces glissantes (marbre, métal poli) ou des marches irrégulières ajoutent un inconfort supplémentaire en perturbant la stabilité et la perception de l’escalier.


3. Conséquences d’un escalier mal conçu


Un escalier inconfortable peut entraîner :

- Une fatigue accrue, car il nécessite plus d’effort musculaire.

- Un risque accru de chute, notamment si la hauteur ou la profondeur ne sont pas adaptées.

- Un inconfort psychologique, rendant son usage stressant, notamment pour les personnes sujettes au vertige.


Conclusion


Un escalier bien conçu doit respecter des principes ergonomiques comme la loi de Blondel, garantissant un équilibre entre hauteur et profondeur des marches. Les écarts à cette règle, notamment dans les escaliers trop raides ou mal proportionnés, augmentent l’effort physique et le risque d’accident. C’est pourquoi, au-delà de l’esthétique, un escalier doit avant tout être pensé pour le confort et la sécurité des usagers.


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  continue reading

3442 επεισόδια

Tous les épisodes

×
 
Peindre des yeux sur les fesses des vaches peut sembler insolite, mais cette technique ingénieuse repose sur un principe bien connu en biologie comportementale : l’illusion d’un regard dissuasif. Cette stratégie, testée au Botswana par un chercheur soucieux de protéger le bétail des attaques de lions, a démontré son efficacité. Voici pourquoi cette approche fonctionne et pourquoi elle présente des avantages à la fois écologiques et économiques. 1. Exploiter un réflexe naturel des prédateurs Dans la nature, de nombreux animaux évitent d’attaquer lorsqu’ils ont l’impression d’être observés. Les prédateurs, comme les lions, préfèrent généralement surprendre leurs proies par-derrière. Le fait de peindre de grands yeux sur l’arrière-train des vaches trompe le lion en lui donnant l’illusion que l’animal a repéré sa présence. Par prudence, il abandonne alors son attaque, cherchant une proie plus facile à surprendre. Ce phénomène repose sur un principe psychologique bien étudié : le "regard perçu". Chez de nombreuses espèces, y compris les humains, la simple impression d’être observé influence le comportement et décourage les actions risquées. C’est ce même principe qui explique pourquoi des images d’yeux sur des affiches peuvent réduire les comportements indésirables, comme le vol. 2. Une méthode simple et efficace Contrairement aux clôtures électriques ou aux chiens de garde, peindre des yeux sur les vaches est une solution peu coûteuse et facile à mettre en place. Elle ne nécessite aucun équipement complexe et peut être réalisée par les éleveurs eux-mêmes. De plus, contrairement aux colliers GPS ou aux protections physiques, cette approche ne gêne pas les animaux et n’altère pas leur comportement naturel. 3. Un bénéfice pour les lions et la biodiversité L’un des problèmes majeurs de la cohabitation entre les éleveurs et les lions au Botswana est que ces derniers sont régulièrement abattus pour protéger le bétail. En réduisant les attaques sur les vaches, cette technique permet d’éviter les représailles contre les lions. Cela contribue à préserver cette espèce menacée tout en maintenant un équilibre écologique dans la région. 4. Une approche durable pour l’élevage Au-delà de la protection immédiate des troupeaux, cette méthode favorise une cohabitation pacifique entre les éleveurs et la faune sauvage. Plutôt que de recourir à des solutions radicales comme le braconnage ou l’usage de poisons, elle représente une alternative respectueuse de l’environnement et adaptée aux réalités locales. En conclusion, peindre des yeux sur les fesses des vaches est une idée astucieuse qui s’appuie sur des principes biologiques solides. Elle protège à la fois le bétail et les lions, tout en offrant une solution simple, économique et durable pour les éleveurs du Botswana. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Une allocution et un discours sont deux formes de prise de parole en public, mais elles diffèrent par leur longueur, leur objectif et leur contexte. 1. L'allocution : une intervention brève et solennelle Une allocution est une prise de parole courte, généralement solennelle et formelle. Elle est souvent prononcée par une personnalité importante, comme un chef d'État, un dirigeant ou une autorité, dans un cadre précis. Son but est d’adresser un message concis et percutant à un auditoire, sans nécessairement développer un raisonnement complexe. Les allocutions sont souvent utilisées lors d’événements marquants comme : Les vœux présidentiels du Nouvel An, Une déclaration de crise (exemple : une allocution télévisée en cas d’urgence), L’ouverture ou la clôture d’une cérémonie. Elles sont généralement plus émotionnelles et symboliques que techniques ou argumentatives. Le ton est souvent solennel et la forme plus directe. 2. Le discours : une prise de parole plus développée et structurée Un discours, en revanche, est une prise de parole plus longue et plus élaborée. Il vise à informer, convaincre, expliquer ou motiver un public en développant une argumentation claire et structurée. Il peut durer plusieurs minutes, voire des heures, selon le contexte. Les discours sont utilisés dans diverses situations, comme : Les discours politiques en campagne électorale, Les discours académiques lors de remises de diplômes, Les discours d’inauguration ou de motivation. Un discours suit généralement une structure définie avec une introduction, un développement (qui expose des idées ou des arguments) et une conclusion. Il peut inclure des éléments rhétoriques (métaphores, répétitions, anecdotes) pour captiver l’auditoire. En résumé, l’allocution est une intervention brève et marquante, souvent solennelle, tandis que le discours est une prise de parole plus détaillée et structurée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
La Maison Blanche, résidence officielle et bureau du président des États-Unis, tire son nom de son apparence caractéristique, mais son appellation n’a pas toujours été évidente. L’histoire de son nom est liée à son architecture, un incendie majeur et des usages populaires avant d’être officiellement adoptée en 1901. 1. Une inspiration architecturale et une première appellation (1792-1800) La construction de la Maison Blanche débute en 1792, sous la présidence de George Washington. L’architecte irlandais James Hoban s’inspire du château de Rastignac, une demeure néoclassique française située en Dordogne, ainsi que du Leinster House de Dublin. Le bâtiment est conçu en grès aquia, une pierre grisâtre extraite en Virginie. Initialement, l’édifice est appelé "Executive Mansion", un terme générique qui désigne les résidences des gouverneurs dans plusieurs États américains. 2. L’incendie de 1814 et la reconstruction (1814-1817) Pendant la guerre de 1812, le 24 août 1814, les troupes britanniques envahissent Washington D.C. et incendient plusieurs bâtiments officiels, dont l’Executive Mansion. Après ce saccage, la structure est sévèrement endommagée, et la reconstruction s’étale jusqu’en 1817, sous la présidence de James Monroe. Pour masquer les traces de l’incendie et protéger le grès des intempéries, le bâtiment est recouvert d’une épaisse couche de peinture blanche à base de chaux. Cette caractéristique donne naissance au surnom "White House" ("Maison Blanche"), qui commence à être utilisé par le public. 3. L’usage populaire et l’officialisation du nom (1817-1901) Tout au long du XIXe siècle, le terme "White House" devient courant dans le langage populaire et dans la presse, même si le gouvernement continue d’utiliser "Executive Mansion" dans les documents officiels. Finalement, en 1901, le président Theodore Roosevelt officialise le nom en faisant inscrire "The White House" sur la papeterie présidentielle et les documents administratifs. Cette décision vise à unifier les références au bâtiment et à ancrer son identité unique. Conclusion La Maison Blanche doit son nom à un concours de circonstances historiques et esthétiques : son architecture inspirée du style néoclassique, l’incendie de 1814 et la nécessité de la repeindre en blanc. Ce nom, d’abord un simple surnom, s’est imposé dans l’usage courant avant d’être institutionnalisé par Roosevelt en 1901, devenant ainsi un symbole universel du pouvoir américain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Pour écouter mon épisode Pourquoi une affiche représentant Cyril Hanouna est-elle jugée antisémite ? : Apple Podcast: https://podcasts.apple.com/fr/podcast/pourquoi-une-affiche-représentant-cyril-hanouna-est/id1408994486?i=1000699157434 Spotify: https://open.spotify.com/episode/7jKTToxmmpxtqYMIljyUIr?si=e65099f171d14fc6 ------------------------- Astérix, le célèbre héros gaulois de la bande dessinée créée par René Goscinny et Albert Uderzo, est toujours représenté avec un casque orné de deux ailes blanches. Ce détail iconique n’est pas anodin et est avant tout une mauvaise reconstituion historique. 1. Une référence aux Gaulois et à leurs casques Dans l’imaginaire collectif, les Gaulois sont souvent représentés avec des casques ornés, bien que cette vision soit en partie une invention moderne. Les véritables casques gaulois retrouvés par les archéologues comportaient parfois des décorations, mais rarement des ailes. Certains modèles étaient surmontés de cornes (comme le casque d'Amfreville) ou d’autres ornements en métal. Les ailes du casque d’Astérix sont donc une interprétation fantaisiste plutôt qu’un reflet strict de la réalité historique. 2. Une inspiration mythologique nordique Le casque ailé d’Astérix évoque également la mythologie nordique, notamment les représentations populaires des dieux et guerriers scandinaves comme Odin ou les Valkyries. Ces figures sont souvent illustrées avec des casques ailés, bien que cela soit aussi un mythe propagé par l’opéra et l’iconographie du XIXe siècle. Cette inspiration donne au personnage une dimension héroïque et épique. 3. Un élément graphique fort et distinctif D’un point de vue artistique, les ailes du casque d’Astérix remplissent un rôle essentiel : elles accentuent le dynamisme du personnage. Elles bougent souvent en fonction de son état d’esprit ou de ses actions, ajoutant une touche d’expressivité et de mouvement. Cet élément distinctif permet également aux lecteurs de reconnaître instantanément Astérix parmi d’autres personnages. 4. Un symbole de vitesse et de malice Les ailes sont traditionnellement associées à la vitesse et à l’agilité, à l’image du dieu Mercure (Hermès chez les Grecs), messager des dieux romains. Astérix, petit mais rusé et rapide, partage ces qualités : il est souvent plus malin que ses adversaires et sait se faufiler habilement dans les situations les plus complexes. Son casque ailé devient ainsi le symbole de son intelligence et de son esprit vif. En conclusion, le casque ailé d’Astérix est un mélange d’inspirations historiques, mythologiques et artistiques. Il contribue à l’identité visuelle du personnage tout en reflétant ses traits de caractère essentiels : la ruse, la rapidité et l’héroïsme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Le droit pénal français prévoit que certaines infractions impossibles peuvent néanmoins être sanctionnées. Cela signifie que, même si l'infraction ne pouvait matériellement pas être consommée, son auteur peut être condamné, car son intention criminelle reste punissable. L'arrêt Perdereau du 16 janvier 1986 illustre ce principe à travers le cas d’un individu condamné pour tentative d’homicide volontaire, alors qu’il avait tenté de tuer une personne déjà décédée. 1. L’arrêt Perdereau et la notion d’infraction impossible Dans cette affaire, un individu avait frappé violemment une personne qu'il croyait seulement inconsciente, alors qu’elle était déjà morte à la suite d’un premier meurtre commis par une autre personne. La Cour de cassation a confirmé sa condamnation pour tentative d’homicide volontaire, affirmant que "l’état du cadavre est indépendant de la volonté de l’auteur" et que les violences exercées caractérisaient un commencement d’exécution. Cet arrêt établit donc qu’un meurtre sur un cadavre peut être qualifié de tentative d’homicide, car l’élément intentionnel (la volonté de tuer) et l’acte matériel (les coups portés) sont bien présents, même si le résultat (la mort) était déjà survenu. 2. Fondements juridiques de la sanction des infractions impossibles L’article 121-5 du Code pénal définit la tentative punissable comme un acte manifestant l’intention de commettre un crime ou un délit, si cet acte est interrompu par une circonstance indépendante de la volonté de l’auteur. L’infraction impossible est une forme de tentative punissable lorsque : L’intention criminelle est avérée : l’auteur croyait réellement commettre une infraction. Il y a un commencement d’exécution : l’auteur a accompli des actes concrets en vue de la commission de l’infraction. L’échec est dû à une circonstance extérieure (comme la mort préalable de la victime). 3. Pourquoi punir une infraction impossible ? Préserver l’ordre public : même si l’infraction n’a pas eu lieu, l’acte reste dangereux et doit être sanctionné pour dissuader d’autres comportements similaires. Réprimer l’intention criminelle : la volonté de tuer ou de commettre un crime est en elle-même répréhensible, peu importe l’issue. Assurer l’équité : il serait injuste de ne pas punir quelqu’un simplement parce qu’un élément matériel lui échappe, alors qu’un autre coupable, dans une situation similaire mais avec une victime vivante, serait condamné. Conclusion L'arrêt Perdereau montre que le droit pénal français ne se limite pas aux infractions matériellement réalisées mais prend en compte l’intention criminelle et le commencement d’exécution. Ainsi, une infraction impossible, comme une tentative de meurtre sur un cadavre, peut être punie, car l’élément moral du crime demeure. Cela illustre la volonté du droit pénal de prévenir et réprimer efficacement les comportements dangereux, même en l’absence de résultat tangible. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Si vous avez déjà ressenti une gêne en montant ou descendant un escalier, cela peut être dû à une conception qui ne respecte pas certaines règles ergonomiques. L'une des principales est la loi de Blondel, une règle mathématique qui définit le rapport idéal entre la hauteur et la profondeur des marches pour assurer un confort optimal. 1. La loi de Blondel : un équilibre entre hauteur et profondeur La loi de Blondel, formulée par l'architecte français Nicolas-François Blondel au XVIIᵉ siècle, établit la relation suivante entre les dimensions d’un escalier : M = 2h + g Où : - H est la hauteur de la marche (contremarche), - G est la profondeur de la marche (giron). Cette équation reflète la longueur moyenne d’un pas humain, qui varie entre 60 et 64 cm. Ainsi, pour garantir un mouvement fluide et naturel, un escalier doit avoir un giron et une hauteur proportionnés : - Une hauteur de marche idéale est d’environ 17 cm. - Un giron confortable doit être d’environ 28 à 30 cm. Si ces proportions sont mal respectées, l’escalier devient inconfortable et potentiellement dangereux. 2. Pourquoi certains escaliers sont inconfortables ? Certains escaliers peuvent sembler particulièrement pénibles ou dangereux à utiliser pour plusieurs raisons : a) Un giron trop court Si les marches sont trop peu profondes (moins de 25 cm), il est difficile d’y poser le pied correctement. Cela force le marcheur à marcher sur la pointe des pieds, ce qui fatigue rapidement les muscles des jambes et augmente le risque de chute. b) Une hauteur excessive Si les contremarches dépassent 18 cm, chaque pas demande un effort supplémentaire pour lever la jambe plus haut. Cela devient rapidement épuisant, notamment pour les personnes âgées ou les enfants. c) Les escaliers en colimaçon ou en angle Les escaliers tournants posent un problème particulier : les marches ne sont pas uniformes. Près de l’axe central, le giron est extrêmement réduit, ce qui force les utilisateurs à placer le pied en biais ou à compenser avec l’autre jambe. Cela perturbe l’équilibre et rend l’ascension plus fatigante. d) Des matériaux inadaptés Les surfaces glissantes (marbre, métal poli) ou des marches irrégulières ajoutent un inconfort supplémentaire en perturbant la stabilité et la perception de l’escalier. 3. Conséquences d’un escalier mal conçu Un escalier inconfortable peut entraîner : - Une fatigue accrue, car il nécessite plus d’effort musculaire. - Un risque accru de chute, notamment si la hauteur ou la profondeur ne sont pas adaptées. - Un inconfort psychologique, rendant son usage stressant, notamment pour les personnes sujettes au vertige. Conclusion Un escalier bien conçu doit respecter des principes ergonomiques comme la loi de Blondel, garantissant un équilibre entre hauteur et profondeur des marches. Les écarts à cette règle, notamment dans les escaliers trop raides ou mal proportionnés, augmentent l’effort physique et le risque d’accident. C’est pourquoi, au-delà de l’esthétique, un escalier doit avant tout être pensé pour le confort et la sécurité des usagers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Cette idée est une croyance largement répandue. Mais que dit la science à ce sujet ? En réalité, aucun aliment seul ne permet de grandir, mais une alimentation équilibrée contenant des nutriments essentiels, dont ceux que l'on trouve dans la soupe, peut favoriser la croissance. 1. La croissance : un processus multifactoriel La taille d’un individu est principalement déterminée par des facteurs génétiques (environ 80 %), mais aussi par l’alimentation et le mode de vie (20 %). Un apport insuffisant en nutriments essentiels pendant l’enfance et l’adolescence peut ralentir la croissance, tandis qu’une alimentation riche et équilibrée favorise un développement optimal. 2. Les nutriments essentiels à la croissance présents dans la soupe Les soupes, lorsqu’elles sont bien composées, contiennent plusieurs nutriments essentiels à la croissance osseuse : Les protéines : Essentielles pour la construction des tissus, elles sont contenues dans les soupes à base de viande, de poisson ou de légumineuses. Le calcium : Fondamental pour la croissance osseuse, il est présent dans les soupes contenant du lait, des légumes verts (épinards, brocolis) ou des produits laitiers ajoutés. Le magnésium et le phosphore : Contribuent également à la formation des os et se retrouvent dans les légumes, les noix et certaines céréales. Les vitamines A, C et D : Vitamine A : Favorise la croissance cellulaire (présente dans les carottes, les courges). Vitamine C : Aide à l’absorption du fer et au développement des tissus (tomates, poivrons). Vitamine D : Permet la fixation du calcium sur les os (souvent absente de la soupe, mais apportée par l’exposition au soleil et certains aliments enrichis). 3. La soupe, un allié, mais pas un remède miracle Si la soupe est riche en nutriments, elle ne suffit pas à elle seule pour garantir une croissance optimale. Une alimentation variée et équilibrée est nécessaire, incluant des protéines animales ou végétales, des produits laitiers, des céréales complètes et des fruits. De plus, l’activité physique et le sommeil jouent un rôle crucial : l’hormone de croissance est principalement sécrétée la nuit, et l’exercice stimule également son libération. Conclusion Manger de la soupe ne fait pas directement grandir, mais elle peut contribuer à une bonne croissance si elle fait partie d’une alimentation équilibrée. C’est donc un mythe partiellement vrai : la soupe seule ne suffit pas, mais bien choisie, elle apporte des éléments nutritifs essentiels au développement osseux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
La radiesthésie ou sourcellerie, qui consiste à détecter des sources d’eau souterraines à l’aide d’un bâton en Y ou de baguettes métalliques, est une pratique ancienne encore utilisée dans certaines régions. Cependant, les études scientifiques menées sur le sujet montrent que cette technique repose davantage sur des phénomènes psychologiques que sur une réelle capacité à détecter l’eau. 1. L’absence de preuve scientifique solide Depuis le XXᵉ siècle, plusieurs expériences ont été réalisées pour tester la capacité des sourciers à localiser des sources d’eau de manière fiable. Parmi les études les plus connues, on trouve : - L’étude de Hans-Dieter Betz (1990s, Allemagne) : Un physicien a testé 500 sourciers dans des conditions rigoureusement contrôlées. Après une sélection initiale, 43 d’entre eux ont participé à une série d’expériences où l’eau circulait dans des tuyaux souterrains sous un sol opaque. Les résultats ont montré que les performances des sourciers étaient équivalentes au hasard. - L’expérience de James Randi (années 1980-1990) : Le célèbre sceptique et magicien a proposé un prix d’un million de dollars à quiconque pourrait démontrer des capacités paranormales sous des conditions expérimentales contrôlées. Aucun sourcier n’a jamais réussi à détecter l’eau de façon reproductible. Ces résultats montrent que la radiesthésie ne fonctionne pas mieux que le hasard et qu’il n’existe aucun mécanisme scientifique connu permettant d’expliquer une quelconque détection par un bâton ou des baguettes. 2. L’effet idéomoteur : une explication psychologique Le principal facteur expliquant les mouvements du bâton des sourciers est l’effet idéomoteur. Il s’agit d’un phénomène inconscient où le corps effectue de légers mouvements musculaires involontaires en réponse à une attente ou une croyance. - Lorsque le sourcier croit fortement à la présence d’une source d’eau, son cerveau influence involontairement ses mains, provoquant une inclinaison ou un mouvement du bâton. - Ce phénomène est similaire à celui observé avec la planche de Ouija, où les participants déplacent inconsciemment le pointeur. 3. Pourquoi cette pratique perdure-t-elle ? Malgré le manque de preuve scientifique, la sourcellerie continue d’être utilisée pour plusieurs raisons : - Les biais cognitifs : Les sourciers retiennent leurs succès et oublient leurs échecs (biais de confirmation). - Les explications alternatives : Dans certaines régions, l’eau est naturellement présente partout en sous-sol, ce qui explique pourquoi certaines recherches « réussissent » par hasard. - L’attrait de la tradition : La transmission de la sourcellerie de génération en génération renforce sa crédibilité auprès des pratiquants. Conclusion Les recherches scientifiques ont systématiquement montré que la détection d’eau par un sourcier avec un bâton repose sur des illusions cognitives et l’effet idéomoteur plutôt que sur une réelle perception de l’eau souterraine. Bien que cette pratique soit encore répandue, elle ne repose sur aucun fondement scientifique valide et fonctionne au même niveau que le hasard. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Le caviar et les œufs de lompe sont deux types d'œufs de poisson souvent comparés, mais ils diffèrent considérablement en termes d'origine, de qualité, de prix et d’utilisation culinaire. Voici une explication détaillée de leurs différences. 1. L’Origine et les Poissons Concernés Le caviar est exclusivement constitué d’œufs d’esturgeons, un poisson présent principalement dans la mer Caspienne, la mer Noire et certaines rivières. Les espèces les plus célèbres sont le béluga, l’osciètre et le sévruga. Les œufs de lompe proviennent du lompe, un poisson de l’Atlantique Nord, plus petit et bien plus commun que l’esturgeon. 2. Le Processus de Production Le caviar est récolté avec soin, souvent à la main, et nécessite un processus de salage et d’affinage qui peut durer plusieurs mois pour développer des arômes subtils. Les œufs de lompe, en revanche, sont traités beaucoup plus rapidement après la récolte et subissent un colorant artificiel (noir ou rouge) et une salaison plus marquée pour prolonger leur conservation. 3. Le Prix et la Rareté Le caviar est un produit de luxe. L’esturgeon met plusieurs années à atteindre la maturité pour produire des œufs, ce qui explique son prix élevé, pouvant aller de plusieurs centaines à plusieurs milliers d’euros le kilo. Les œufs de lompe sont beaucoup plus abordables, car le lompe se reproduit rapidement et en grande quantité. On les trouve en supermarché pour quelques dizaines d’euros le kilo. 4. Le Goût et la Texture Le caviar offre une texture fondante et un goût délicat, avec des notes de noisette ou de beurre selon l’espèce. Les œufs de lompe sont plus fermes et croquants, avec une saveur plus salée et iodée, moins raffinée. 5. L’Usage Culinaire Le caviar est servi pur, souvent sur des blinis avec de la crème fraîche, pour savourer pleinement sa complexité aromatique. Les œufs de lompe sont utilisés comme un substitut bon marché, notamment pour agrémenter des canapés, des salades ou des sauces. Conclusion Le caviar est un produit haut de gamme, rare et raffiné, tandis que les œufs de lompe sont une alternative économique, utilisée principalement pour imiter son apparence. Leur seule ressemblance est visuelle, mais leur qualité et leur prestige sont incomparables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Depuis plusieurs décennies, il est de tradition pour chaque Premier ministre français de planter un arbre dans les jardins de l’Hôtel de Matignon. Cette coutume, bien ancrée dans la vie politique française, revêt plusieurs dimensions : symbolique, historique et écologique. 1. Une tradition instaurée sous la Ve République L’origine précise de cette tradition est difficile à dater avec exactitude, mais elle s’est surtout développée sous la Ve République, en particulier à partir des années 1970. L’un des premiers chefs du gouvernement à avoir perpétué ce geste est Raymond Barre (Premier ministre de 1976 à 1981). Depuis, tous ses successeurs ont suivi cette coutume en plantant un arbre lors de leur mandat. 2. Un geste symbolique fort Planter un arbre à Matignon est un acte hautement symbolique. Il représente : - L’empreinte laissée par chaque Premier ministre : Un arbre est un élément durable qui continue de grandir après le départ de son planteur. Il illustre ainsi la continuité de l’action politique et l’héritage laissé par chaque chef du gouvernement. - L’enracinement dans la fonction : En mettant en terre un arbre, le Premier ministre affirme son engagement et son ancrage dans la mission qui lui est confiée. - Un lien avec la nature et l’environnement : À une époque où les questions écologiques prennent une importance croissante, ce geste rappelle la nécessité de préserver la nature et de prendre en compte le développement durable dans les politiques publiques... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
L'expression "position du missionnaire" fait référence à une position sexuelle où l’un des partenaires est allongé sur le dos tandis que l’autre est au-dessus, face à lui. Si cette position est aujourd’hui considérée comme une des plus classiques, voire la plus répandue, son appellation intrigue et soulève de nombreuses questions. Son origine semble liée à une perception occidentale de la sexualité et à l'influence de la morale religieuse. Une appellation tardive et controversée Contrairement à ce que l'on pourrait croire, l'expression "position du missionnaire" ne remonte pas à l’Antiquité ou au Moyen Âge, mais semble être apparue au XXe siècle, principalement dans la culture anglo-saxonne. Certains chercheurs avancent que le terme pourrait avoir été popularisé au milieu du XXe siècle par des anthropologues ou par des sexologues comme Alfred Kinsey, un pionnier de l'étude du comportement sexuel aux États-Unis. Les missionnaires chrétiens et la sexualité L'origine de cette appellation est souvent attribuée à la croyance selon laquelle les missionnaires chrétiens, notamment ceux opérant en Polynésie ou en Afrique aux XVIIIe et XIXe siècles, auraient enseigné aux populations locales que cette position était la seule acceptable moralement. Selon cette idée, les missionnaires auraient réprimé les pratiques sexuelles jugées trop "libertines" des peuples qu’ils évangélisaient, en promouvant une sexualité plus "chaste" et conforme aux dogmes de l’Église. Cette vision est toutefois remise en question par les historiens et anthropologues, car il existe peu de preuves directes attestant que les missionnaires aient imposé cette position en particulier. Il est plus probable que cette interprétation soit née a posteriori, alimentée par la critique des restrictions imposées par les religions monothéistes sur la sexualité. L’influence de la culture occidentale L'expression "missionary position" en anglais apparaît en tout cas dans les ouvrages de sexologie au XXe siècle et s'inscrit dans une vision où la sexualité est souvent associée à des normes sociales et religieuses strictes. Dans de nombreuses cultures occidentales, cette position a été longtemps perçue comme la plus "normale" ou la plus "respectable", notamment parce qu’elle permet le contact visuel entre les partenaires et qu’elle serait propice à la procréation. Une expression devenue universelle Aujourd’hui, l’expression "position du missionnaire" est connue mondialement, bien qu’elle soit souvent employée avec une connotation humoristique ou ironique, notamment pour désigner une approche jugée "conventionnelle" ou "ennuyeuse" de la sexualité. Cependant, son histoire reste floue, entre mythe et réalité, et témoigne de l'influence des normes culturelles et religieuses sur la perception du corps et du plaisir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Contrairement à d’autres sports comme le basket-ball ou le tennis, qui imposent des dimensions fixes pour leurs terrains, le football permet une certaine flexibilité dans la taille de ses terrains. Cette variabilité est principalement due aux règles établies par la FIFA et les fédérations nationales, aux contraintes d’infrastructure et aux considérations stratégiques des clubs. 1. Des règles flexibles de la FIFA La Fédération Internationale de Football Association (FIFA) impose des dimensions minimales et maximales pour les terrains de football, mais laisse une marge de manœuvre aux clubs et aux compétitions. Selon les règlements officiels : Longueur (entre les lignes de but) : entre 90 et 120 mètres Largeur (entre les lignes de touche) : entre 45 et 90 mètres Pour les compétitions internationales majeures (comme la Coupe du Monde), la FIFA recommande des dimensions standard de 105 mètres de long et 68 mètres de large, mais cela n’est pas toujours appliqué strictement. 2. L’adaptation aux infrastructures existantes L’une des raisons pour lesquelles les terrains varient en taille est l’adaptation aux infrastructures. De nombreux stades ont été construits il y a des décennies, voire plus d’un siècle, dans des espaces urbains contraints. Par conséquent, certains clubs ne peuvent pas facilement modifier la taille de leur terrain sans entreprendre des travaux coûteux. Par exemple, certains stades historiques en Angleterre, comme Stamford Bridge (Chelsea) ou Anfield (Liverpool), ont des dimensions légèrement plus réduites par rapport à des stades plus récents construits avec des terrains plus larges. 3. Un avantage stratégique pour les équipes Certains clubs ajustent la taille de leur terrain en fonction de leur style de jeu. Un terrain plus grand favorise les équipes qui privilégient un jeu basé sur la possession et les passes longues, tandis qu’un terrain plus petit avantage celles qui misent sur un pressing intense et un jeu direct. Par exemple : Le FC Barcelone (quand il jouait au Camp Nou) avait un terrain large qui favorisait son jeu de passes courtes et son style de possession. Stoke City, en Premier League, avait un terrain plus étroit pour rendre le jeu plus physique et intense, ce qui leur permettait de gêner les équipes techniques. 4. Une harmonisation progressive dans les grandes compétitions Bien que cette flexibilité demeure, les compétitions modernes tendent à standardiser les dimensions des terrains pour éviter des déséquilibres trop importants entre les équipes. En Ligue des Champions, en Coupe du Monde ou à l’Euro, les terrains ont généralement des dimensions proches de 105x68 mètres, garantissant une uniformité dans les conditions de jeu. Conclusion Si les terrains de football ne font pas tous la même taille, c’est avant tout parce que les règles du jeu permettent une certaine flexibilité. Les infrastructures existantes, les choix stratégiques des clubs et l’histoire des stades jouent également un rôle dans ces variations. Toutefois, dans les grandes compétitions internationales, une harmonisation progressive tend à imposer des dimensions plus uniformes pour assurer l’équité entre les équipes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Il est déconseillé de laisser trop d’argent sur son compte courant en France en raison de plusieurs facteurs, notamment la loi Sapin 2, adoptée en 2016. Cette loi prévoit un mécanisme permettant aux autorités de geler temporairement les retraits d’argent sur certains placements en cas de crise financière. Le lien avec la loi Sapin 2 La loi Sapin 2 a été mise en place pour renforcer la stabilité du système financier français, notamment en encadrant certains produits d’épargne comme l’assurance-vie. L’élément le plus marquant est l’article 49 de la loi, qui donne au Haut Conseil de Stabilité Financière (HCSF) le pouvoir de bloquer temporairement les retraits sur les contrats d’assurance-vie en cas de risques systémiques. Si cette loi ne concerne pas directement les comptes courants, elle montre que l’État peut, en cas de crise grave, intervenir sur l’épargne des particuliers pour éviter une déstabilisation du secteur financier. Cela incite à diversifier son épargne plutôt que de laisser de grosses sommes sur un compte bancaire où elles restent non rémunérées et vulnérables aux décisions gouvernementales. Le risque en cas de faillite bancaire Un autre point important à considérer est la garantie des dépôts bancaires. En cas de faillite bancaire en France, le Fonds de Garantie des Dépôts et de Résolution (FGDR) protège les dépôts jusqu’à 100 000 € par personne et par établissement bancaire. Ce qui est couvert par la garantie des dépôts : Les comptes courants Les comptes sur livret non réglementés (livrets bancaires classiques) Les comptes à terme La partie en espèces des comptes-titres Ce qui n'est pas couvert : Les titres financiers eux-mêmes (actions, obligations, etc.) : ils ne sont pas garantis mais restent votre propriété en cas de faillite bancaire. Les placements en assurance-vie : ils relèvent d’une autre garantie, limitée à 70 000 €, via le Fonds de Garantie des Assurances de Personnes (FGAP). Exceptions et cas particuliers : Indemnisation renforcée jusqu’à 500 000 € pour des dépôts exceptionnels temporaires, comme : La vente d’un bien immobilier résidentiel Une succession Une indemnisation (accident, assurance, divorce, etc.) Si une banque fait faillite, le FGDR assure un remboursement automatique sous 7 jours ouvrés dans la limite de 100 000 € par établissement bancaire. D’autres raisons d’éviter d’avoir trop d’argent sur son compte courant 1. Aucune rémunération : Contrairement aux livrets d’épargne réglementés (Livret A, LDDS), l’argent sur un compte courant ne rapporte aucun intérêt. 2. Risques liés à l’inflation : L’inflation réduit progressivement le pouvoir d’achat des fonds laissés sur un compte courant. 3. Possibilité d’intervention de l’État en cas de crise : Même si la loi Sapin 2 ne s’applique pas directement aux comptes bancaires, elle montre que l’État peut imposer des restrictions sur l’épargne. Conclusion Bien que la loi Sapin 2 ne vise pas directement les comptes courants, elle rappelle que l’État peut restreindre l’accès à l’épargne en cas de crise. De plus, en cas de faillite bancaire, seul 100 000 € par banque et par personne est garanti, ce qui rend risqué le fait de laisser de grosses sommes sur un même compte. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
L'affirmation selon laquelle Coca-Cola « produit de la cocaïne » repose sur un processus industriel bien particulier, hérité de l’histoire de la marque et toujours en vigueur aujourd’hui aux États-Unis. En effet, la célèbre entreprise utilise encore des feuilles de coca dans la fabrication de ses boissons, bien qu’elles soient officiellement débarrassées de leur alcaloïde principal : la cocaïne. Toutefois, cette dernière, extraite lors du processus, ne disparaît pas pour autant. 1. L’histoire du Coca-Cola et de la cocaïne À sa création en 1886 par le pharmacien John Stith Pemberton, Coca-Cola contenait réellement de la cocaïne, issue des feuilles de coca, ainsi que de la caféine extraite de la noix de kola. À l’époque, cette boisson était vendue comme un tonique médicinal aux vertus stimulantes. Ce n’est qu’au début du XXe siècle, avec l’évolution de la réglementation et la montée des préoccupations sur les effets des drogues, que la cocaïne a été retirée de la recette, bien que les feuilles de coca aient continué à être utilisées. 2. Un monopole exclusif sur l’importation de la feuille de coca Aujourd’hui, Coca-Cola est la seule entreprise aux États-Unis à bénéficier d’une autorisation fédérale lui permettant d’importer légalement des feuilles de coca. Cette autorisation spéciale est rendue possible grâce à un partenariat historique avec la société Stepan Company, une entreprise chimique basée dans l’Illinois. Stepan est chargée d’importer et de traiter ces feuilles sous un contrôle strict de la Drug Enforcement Administration (DEA). Le processus consiste à extraire la cocaïne des feuilles de coca afin de ne conserver que les arômes et autres composés utilisés dans la recette secrète du Coca-Cola. Mais au lieu de détruire la cocaïne extraite, celle-ci est purifiée et vendue à l’entreprise pharmaceutique Mallinckrodt Pharmaceuticals, spécialisée dans la production de médicaments, notamment des anesthésiques. 3. La revente légale de cocaïne pour l’industrie pharmaceutique Mallinckrodt est l’un des principaux fournisseurs de chlorhydrate de cocaïne, un anesthésique local encore utilisé dans certains actes médicaux, en particulier en chirurgie ORL (nez, gorge, oreilles). Ce marché représente une valeur estimée à trois milliards de dollars par an aux États-Unis. Cette cocaïne pharmaceutique est donc un sous-produit direct du processus d’extraction réalisé pour Coca-Cola. 4. Une situation unique au monde Ce système est strictement encadré par les autorités américaines et n’a pas d’équivalent ailleurs dans le monde. La feuille de coca reste interdite à l’importation aux États-Unis sauf pour cet usage précis. Ainsi, bien que Coca-Cola ne commercialise plus de cocaïne dans ses boissons, son processus de production contribue indirectement à l’approvisionnement légal de cocaïne médicale aux États-Unis. En somme, Coca-Cola ne « produit » pas directement de cocaïne, mais son activité entraîne mécaniquement l’extraction et la revente légale de cette substance à des fins médicales, un paradoxe historique et industriel fascinant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
La perspective de missions habitées vers Mars soulève des défis majeurs, notamment en matière de construction d'habitats capables de protéger les astronautes des conditions extrêmes de la planète rouge. Transporter des matériaux de construction depuis la Terre étant coûteux et complexe, les scientifiques explorent des solutions utilisant les ressources disponibles sur place, une approche connue sous le nom d'utilisation des ressources in situ (ISRU). Le régolithe martien comme matériau de base Le sol martien est recouvert d'une couche de poussière et de fragments rocheux appelée régolithe. Abondant et accessible, le régolithe est envisagé comme composant principal pour la fabrication de structures sur Mars. Cependant, pour en faire un matériau de construction solide, il nécessite un liant efficace. Inspiration des techniques de la Rome antique Les Romains de l'Antiquité utilisaient des additifs organiques, tels que le sang animal, pour améliorer les propriétés mécaniques de leurs matériaux de construction. Cette pratique augmentait la résistance et la durabilité de leurs édifices. S'inspirant de cette méthode, des chercheurs ont proposé d'utiliser des fluides corporels humains, notamment le sang et l'urine, comme liants pour le régolithe martien. Cette approche vise à créer un béton martien robuste en exploitant les ressources humaines disponibles sur place. Propriétés des fluides corporels comme liants Le sang humain contient des protéines, telles que l'albumine, qui possèdent des propriétés adhésives. Lorsqu'elles sont mélangées au régolithe, ces protéines peuvent former des liaisons solides entre les particules, produisant un matériau comparable au béton. De même, l'urine contient de l'urée, une substance capable de dénaturer les protéines et d'améliorer leur capacité à lier les particules solides. L'ajout d'urine au mélange pourrait ainsi renforcer davantage le matériau obtenu. Avantages et défis de cette approche L'utilisation de fluides corporels présente plusieurs avantages : - Réduction de la dépendance aux ressources terrestres : en exploitant des matériaux disponibles sur Mars et produits par les astronautes eux-mêmes, cette méthode diminue le besoin d'approvisionnements depuis la Terre. - Production continue de matériaux : les astronautes génèrent quotidiennement des fluides corporels, offrant une source régulière de liant pour la construction. Cependant, cette approche soulève également des défis : - Quantité de fluides nécessaire : la production de volumes suffisants de sang et d'urine pour des constructions à grande échelle pourrait être contraignante et affecter la santé des astronautes. - Aspects éthiques et psychologiques : l'idée d'utiliser des fluides corporels dans les matériaux de construction peut susciter des réticences et nécessite une acceptation culturelle et individuelle. Perspectives futures Bien que prometteuse, cette technique nécessite des recherches supplémentaires pour évaluer sa faisabilité pratique et son impact sur la santé des astronautes. Parallèlement, d'autres solutions sont explorées, telles que l'utilisation de bactéries ou de champignons pour produire des liants biologiques, ou encore la mise au point de polymères synthétiques à partir de ressources martiennes. L'objectif ultime est de développer des méthodes de construction durables et efficaces, permettant l'établissement de colonies humaines autonomes sur Mars. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

icon Daily Deals
icon Daily Deals
icon Daily Deals

Οδηγός γρήγορης αναφοράς

Ακούστε αυτήν την εκπομπή ενώ εξερευνάτε
Αναπαραγωγή