Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation du deuxième principe de la thermo)
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné
J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le 18 mai 2021 à 22:00:54 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation d’une deuxième principe de la thermo)
Le 18 mai 2021 à 22:02:07 :
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le désordre dans cette définition n'est pas défini par l'hygiène mais comme on pourrait définir le "rangement" des nombres dans une matrice
Le 18 mai 2021 à 22:05:27 :
Le 18 mai 2021 à 22:00:54 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation d’une deuxième principe de la thermo)Tu ferais un bon savant mais un piètre pédagogue, il est évident qu'il n'a pas la culture nécessaire pour savoir tout ça s'il ne comprends pas clairement la notion de base. Le but de ce topic n'est pas de prouver sa capacité à raisonner mais d'élever quelques-uns en essayant de les amener à raisonner, une pensée après l'autre.
Certes, c’est peut être un peu brut de décoffrage mais je suis ouvert à ses questions s’il le souhaite. 
Le concept mathématique intéressant à la base de l’entropie est « l’entropie de Shannon », je suppose qu’on peut tomber sur des explications simples en cherchant ça sur Google
Le 18 mai 2021 à 22:08:02 :
Le 18 mai 2021 à 22:02:07 :
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le désordre dans cette définition n'est pas défini par l'hygiène mais comme on pourrait définir le "rangement" des nombres dans une matrice
Encore une fois, « désordre » c’est très ambigu comme notion, je sais que beaucoup de gens l’utilisent mais je trouve vraiment pas ça convainquant, et définir « désordre » à partir de « rangement » relève des mêmes objections que celles que tu soulevais face aux définitions du temps proposées à la première page
Le 18 mai 2021 à 22:14:58 :
Le 18 mai 2021 à 22:05:27 :
Le 18 mai 2021 à 22:00:54 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation d’une deuxième principe de la thermo)Tu ferais un bon savant mais un piètre pédagogue, il est évident qu'il n'a pas la culture nécessaire pour savoir tout ça s'il ne comprends pas clairement la notion de base. Le but de ce topic n'est pas de prouver sa capacité à raisonner mais d'élever quelques-uns en essayant de les amener à raisonner, une pensée après l'autre. Certes, c’est peut être un peu brut de décoffrage mais je suis ouvert à ses questions s’il le souhaite.
Le concept mathématique intéressant à la base de l’entropie est « l’entropie de Shannon », je suppose qu’on peut tomber sur des explications simples en cherchant ça sur GoogleLe 18 mai 2021 à 22:08:02 :
Le 18 mai 2021 à 22:02:07 :
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le désordre dans cette définition n'est pas défini par l'hygiène mais comme on pourrait définir le "rangement" des nombres dans une matrice
Encore une fois, « désordre » c’est très ambigu comme notion, je sais que beaucoup de gens l’utilisent mais je trouve vraiment pas ça convainquant, et définir « désordre » à partir de « rangement » relève des mêmes objections que celles que tu soulevais face aux définitions du temps proposées à la première page
Oui j'aurais du dire l'ordre et ensuite la différence d'ordre, au temps pour moi mais en mathématiques on a bien les nombres ordinaux qui permettent de comprendre ce que signifie un ordre, mathématiquement parlant bien sûr, la difficulté se fait du passage des mathématiques aux sciences physiques parce que parler d'ordre en physique ne fait pas vraiment sens
Le 18 mai 2021 à 22:23:52 :
Le 18 mai 2021 à 22:14:58 :
Le 18 mai 2021 à 22:05:27 :
Le 18 mai 2021 à 22:00:54 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation d’une deuxième principe de la thermo)Tu ferais un bon savant mais un piètre pédagogue, il est évident qu'il n'a pas la culture nécessaire pour savoir tout ça s'il ne comprends pas clairement la notion de base. Le but de ce topic n'est pas de prouver sa capacité à raisonner mais d'élever quelques-uns en essayant de les amener à raisonner, une pensée après l'autre. Certes, c’est peut être un peu brut de décoffrage mais je suis ouvert à ses questions s’il le souhaite.
Le concept mathématique intéressant à la base de l’entropie est « l’entropie de Shannon », je suppose qu’on peut tomber sur des explications simples en cherchant ça sur GoogleLe 18 mai 2021 à 22:08:02 :
Le 18 mai 2021 à 22:02:07 :
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le désordre dans cette définition n'est pas défini par l'hygiène mais comme on pourrait définir le "rangement" des nombres dans une matrice
Encore une fois, « désordre » c’est très ambigu comme notion, je sais que beaucoup de gens l’utilisent mais je trouve vraiment pas ça convainquant, et définir « désordre » à partir de « rangement » relève des mêmes objections que celles que tu soulevais face aux définitions du temps proposées à la première page
Oui j'aurais du dire l'ordre et ensuite la différence d'ordre, au temps pour moi mais en mathématiques on a bien les nombres ordinaux qui permettent de comprendre ce que signifie un ordre, mathématiquement parlant bien sûr, la difficulté se fait du passage des mathématiques aux sciences physiques parce que parler d'ordre en physique ne fait pas vraiment sens
Alors les nombres ordinaux c’est absolument la notion mathématique qu’on utilise pour définir l’entropie 
Attention, un peu de maths :
l’entropie selon Shannon se base simplement sur la notion de probabilité. En gros, on considère un système qui peut prendre plusieurs états (disons N) avec différentes probabilités P_i où i varie entre 1 et N. On définit l’entropie statistique associée aux (P_i)_{1 \leq i \leq n} :
S = - k \sum_{i=1}^N P_i ln(P_i)
Où ln est le logarithme néperien et k une constante multiplicative quelconque (positive)
La constante multiplicative utilisée en physique, calculée expérimentalement, s’appelle la constante de Boltzmann notée k_B. On peut de plus montrer que l’entropie maximale est obtenue pour une distribution de probabilité uniforme (si le nombre d’états possibles est fini - dans le cas d’une distribution continue, il me semble que c’est une loi normale qui maximise l’entropie mais c’est à vérifier), et dans ce cas, on en déduit l’entropie d’un système isolé introduite par Boltzmann :
S = k_B ln N
(où N est toujours le nombre d’états accessibles, en physique on préfère la notation \Omega
Voilà pour une vraie définition de l’entropie, en soit ça ne fait intervenir qu’un malheureux logarithme donc c’est mathématiquement très simple mais ça a une portée physique absolument immense
Le 18 mai 2021 à 22:38:05 :
Le 18 mai 2021 à 22:23:52 :
Le 18 mai 2021 à 22:14:58 :
Le 18 mai 2021 à 22:05:27 :
Le 18 mai 2021 à 22:00:54 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation d’une deuxième principe de la thermo)Tu ferais un bon savant mais un piètre pédagogue, il est évident qu'il n'a pas la culture nécessaire pour savoir tout ça s'il ne comprends pas clairement la notion de base. Le but de ce topic n'est pas de prouver sa capacité à raisonner mais d'élever quelques-uns en essayant de les amener à raisonner, une pensée après l'autre. Certes, c’est peut être un peu brut de décoffrage mais je suis ouvert à ses questions s’il le souhaite.
Le concept mathématique intéressant à la base de l’entropie est « l’entropie de Shannon », je suppose qu’on peut tomber sur des explications simples en cherchant ça sur GoogleLe 18 mai 2021 à 22:08:02 :
Le 18 mai 2021 à 22:02:07 :
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le désordre dans cette définition n'est pas défini par l'hygiène mais comme on pourrait définir le "rangement" des nombres dans une matrice
Encore une fois, « désordre » c’est très ambigu comme notion, je sais que beaucoup de gens l’utilisent mais je trouve vraiment pas ça convainquant, et définir « désordre » à partir de « rangement » relève des mêmes objections que celles que tu soulevais face aux définitions du temps proposées à la première page
Oui j'aurais du dire l'ordre et ensuite la différence d'ordre, au temps pour moi mais en mathématiques on a bien les nombres ordinaux qui permettent de comprendre ce que signifie un ordre, mathématiquement parlant bien sûr, la difficulté se fait du passage des mathématiques aux sciences physiques parce que parler d'ordre en physique ne fait pas vraiment sens
Alors les nombres ordinaux c’est absolument la notion mathématique qu’on utilise pour définir l’entropie
Attention, un peu de maths :
l’entropie selon Shannon se base simplement sur la notion de probabilité. En gros, on considère un système qui peut prendre plusieurs états (disons N) avec différentes probabilités P_i où i varie entre 1 et N. On définit l’entropie statistique associée aux (P_i)_{1 \leq i \leq n} :
S = - k \sum_{i=1}^N P_i ln(P_i)
Où ln est le logarithme néperien et k une constante multiplicative quelconque (positive)La constante multiplicative utilisée en physique, calculée expérimentalement, s’appelle la constante de Boltzmann notée k_B. On peut de plus montrer que l’entropie maximale est obtenue pour une distribution de probabilité uniforme (si le nombre d’états possibles est fini - dans le cas d’une distribution continue, il me semble que c’est une loi normale qui maximise l’entropie mais c’est à vérifier), et dans ce cas, on en déduit l’entropie d’un système isolé introduite par Boltzmann :
S = k_B ln N
(où N est toujours le nombre d’états accessibles, en physique on préfère la notation \OmegaVoilà pour une vraie définition de l’entropie, en soit ça ne fait intervenir qu’un malheureux logarithme donc c’est mathématiquement très simple mais ça a une portée physique absolument immense
Je m'y étais déjà intéressé et oui la physique a des notions compliquées mais parfois c'est aussi très simple
Les mathématiques sont fantastiques mais bien trop souvent comprises que par des gens trop socialement inadaptés et donc difficiles à transmettre à ceux qui n'en ont que les bases scolaires élémentaires, pourtant il y a tellement à apprendre et parfois si on pense à reprendre le cheminement de pensée de manière chronologique plutôt que dans le sens des applications possibles, on pourrait peut-être mieux s'y retrouver
Cependant, en tant qu'adepte je persisterai toujours à dire que la physique n'est
Pourquoi une balise cul si il n'y en a pas ?
Assumes un peu ton topic de merde et le bide qui va avec fdp va.
Le 18 mai 2021 à 22:41:11 :
C'est pas le mouvement qui définie le temps ?
C'est très simpliste comme idée mais dans l'esprit commun, le mouvement définit l'espace et pas le temps
Cependant tu es sur la bonne voie, l'espace est défini comment ?
Le 18 mai 2021 à 22:58:38 :
Pourquoi une balise cul si il n'y en a pas ?Assumes un peu ton topic de merde et le bide qui va avec fdp va.
Je me suis fait DDB, remercie tes congénères et j'assume mon topic sur ce forum avec ses con générés
Le 18 mai 2021 à 22:57:06 :
Le 18 mai 2021 à 22:38:05 :
Le 18 mai 2021 à 22:23:52 :
Le 18 mai 2021 à 22:14:58 :
Le 18 mai 2021 à 22:05:27 :
Le 18 mai 2021 à 22:00:54 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation d’une deuxième principe de la thermo)Tu ferais un bon savant mais un piètre pédagogue, il est évident qu'il n'a pas la culture nécessaire pour savoir tout ça s'il ne comprends pas clairement la notion de base. Le but de ce topic n'est pas de prouver sa capacité à raisonner mais d'élever quelques-uns en essayant de les amener à raisonner, une pensée après l'autre. Certes, c’est peut être un peu brut de décoffrage mais je suis ouvert à ses questions s’il le souhaite.
Le concept mathématique intéressant à la base de l’entropie est « l’entropie de Shannon », je suppose qu’on peut tomber sur des explications simples en cherchant ça sur GoogleLe 18 mai 2021 à 22:08:02 :
Le 18 mai 2021 à 22:02:07 :
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le désordre dans cette définition n'est pas défini par l'hygiène mais comme on pourrait définir le "rangement" des nombres dans une matrice
Encore une fois, « désordre » c’est très ambigu comme notion, je sais que beaucoup de gens l’utilisent mais je trouve vraiment pas ça convainquant, et définir « désordre » à partir de « rangement » relève des mêmes objections que celles que tu soulevais face aux définitions du temps proposées à la première page
Oui j'aurais du dire l'ordre et ensuite la différence d'ordre, au temps pour moi mais en mathématiques on a bien les nombres ordinaux qui permettent de comprendre ce que signifie un ordre, mathématiquement parlant bien sûr, la difficulté se fait du passage des mathématiques aux sciences physiques parce que parler d'ordre en physique ne fait pas vraiment sens
Alors les nombres ordinaux c’est absolument la notion mathématique qu’on utilise pour définir l’entropie
Attention, un peu de maths :
l’entropie selon Shannon se base simplement sur la notion de probabilité. En gros, on considère un système qui peut prendre plusieurs états (disons N) avec différentes probabilités P_i où i varie entre 1 et N. On définit l’entropie statistique associée aux (P_i)_{1 \leq i \leq n} :
S = - k \sum_{i=1}^N P_i ln(P_i)
Où ln est le logarithme néperien et k une constante multiplicative quelconque (positive)La constante multiplicative utilisée en physique, calculée expérimentalement, s’appelle la constante de Boltzmann notée k_B. On peut de plus montrer que l’entropie maximale est obtenue pour une distribution de probabilité uniforme (si le nombre d’états possibles est fini - dans le cas d’une distribution continue, il me semble que c’est une loi normale qui maximise l’entropie mais c’est à vérifier), et dans ce cas, on en déduit l’entropie d’un système isolé introduite par Boltzmann :
S = k_B ln N
(où N est toujours le nombre d’états accessibles, en physique on préfère la notation \OmegaVoilà pour une vraie définition de l’entropie, en soit ça ne fait intervenir qu’un malheureux logarithme donc c’est mathématiquement très simple mais ça a une portée physique absolument immense
Je m'y étais déjà intéressé et oui la physique a des notions compliquées mais parfois c'est aussi très simple
en tous cas la formule associée Les mathématiques sont fantastiques mais bien trop souvent comprises que par des gens trop socialement inadaptés et donc difficiles à transmettre à ceux qui n'en ont que les bases scolaires élémentaires, pourtant il y a tellement à apprendre et parfois si on pense à reprendre le cheminement de pensée de manière chronologique plutôt que dans le sens des applications possibles, on pourrait peut-être mieux s'y retrouver
Cependant, en tant qu'adepte je persisterai toujours à dire que la physique n'est
qu'une application des mathématiques et c'est ce qui fait mon intérêt pour les mathématiques
Pour avoir fait énormément de maths et de physique dans ma vie, oui, la physique c’est principalement une application des maths saupoudrée de quelques expériences 
Le résultat le plus beau de la physique, le théorème de Noether, est un résultat (quasi) purement mathématique et son application en physique ne découle que de propriétés de l’univers extrêmement abstraites (pour faire simple, ça permet de montrer l’équivalence entre conservation de l’énergie et invariance temporelle de l’univers - entre autres résultats de la même envergure)
Et non les matheux ne sont pas tous inadaptés sociaux, c’est juste qu’un paquet de profs de maths au lycée sont des incapables 
Le 18 mai 2021 à 23:05:10 :
Le 18 mai 2021 à 22:57:06 :
Le 18 mai 2021 à 22:38:05 :
Le 18 mai 2021 à 22:23:52 :
Le 18 mai 2021 à 22:14:58 :
Le 18 mai 2021 à 22:05:27 :
Le 18 mai 2021 à 22:00:54 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Alors ça c’est un peu foireux, pour deux raison :
- une définition plus fidèle de l’entropie est de dire que c’est une mesure du « manque d’information » dans la distribution des probabilités d’observation des micro-états (en un sens à définir) d’un système. C’est avant tout un concept mathématique que le génie de Boltzmann a permis d’appliquer à la physique
- ça ne permet pas de définir le temps mais permet en revanche, sous certaines hypothèses, de caractériser le sens de son écoulement : l’entropie ne peut qu’augmenter dans un système isolé (c’est entre autre l’une des formulation d’une deuxième principe de la thermo)Tu ferais un bon savant mais un piètre pédagogue, il est évident qu'il n'a pas la culture nécessaire pour savoir tout ça s'il ne comprends pas clairement la notion de base. Le but de ce topic n'est pas de prouver sa capacité à raisonner mais d'élever quelques-uns en essayant de les amener à raisonner, une pensée après l'autre. Certes, c’est peut être un peu brut de décoffrage mais je suis ouvert à ses questions s’il le souhaite.
Le concept mathématique intéressant à la base de l’entropie est « l’entropie de Shannon », je suppose qu’on peut tomber sur des explications simples en cherchant ça sur GoogleLe 18 mai 2021 à 22:08:02 :
Le 18 mai 2021 à 22:02:07 :
Le 18 mai 2021 à 21:59:07 :
Le 18 mai 2021 à 21:54:34 :
Il me semble qu'il est parfois défini comme étant le sens de l'entropie, une sorte de mesure de la dilution d'énergie depuis un instant de base![]()
Un peu approximatif, peux-tu m'en dire plus ?
Il s'agit de la mesure du désordre depuis une situation, à 0 tout est ordonné J’aime pas l’appellation « mesure du désordre », dans le sens où un système peut avoir une entropie nulle même en étant complètement bordélique si c’est le seul état accessible. La notion de « désordre » n’a pas de sens physique à priori
Le désordre dans cette définition n'est pas défini par l'hygiène mais comme on pourrait définir le "rangement" des nombres dans une matrice
Encore une fois, « désordre » c’est très ambigu comme notion, je sais que beaucoup de gens l’utilisent mais je trouve vraiment pas ça convainquant, et définir « désordre » à partir de « rangement » relève des mêmes objections que celles que tu soulevais face aux définitions du temps proposées à la première page
Oui j'aurais du dire l'ordre et ensuite la différence d'ordre, au temps pour moi mais en mathématiques on a bien les nombres ordinaux qui permettent de comprendre ce que signifie un ordre, mathématiquement parlant bien sûr, la difficulté se fait du passage des mathématiques aux sciences physiques parce que parler d'ordre en physique ne fait pas vraiment sens
Alors les nombres ordinaux c’est absolument la notion mathématique qu’on utilise pour définir l’entropie
Attention, un peu de maths :
l’entropie selon Shannon se base simplement sur la notion de probabilité. En gros, on considère un système qui peut prendre plusieurs états (disons N) avec différentes probabilités P_i où i varie entre 1 et N. On définit l’entropie statistique associée aux (P_i)_{1 \leq i \leq n} :
S = - k \sum_{i=1}^N P_i ln(P_i)
Où ln est le logarithme néperien et k une constante multiplicative quelconque (positive)La constante multiplicative utilisée en physique, calculée expérimentalement, s’appelle la constante de Boltzmann notée k_B. On peut de plus montrer que l’entropie maximale est obtenue pour une distribution de probabilité uniforme (si le nombre d’états possibles est fini - dans le cas d’une distribution continue, il me semble que c’est une loi normale qui maximise l’entropie mais c’est à vérifier), et dans ce cas, on en déduit l’entropie d’un système isolé introduite par Boltzmann :
S = k_B ln N
(où N est toujours le nombre d’états accessibles, en physique on préfère la notation \OmegaVoilà pour une vraie définition de l’entropie, en soit ça ne fait intervenir qu’un malheureux logarithme donc c’est mathématiquement très simple mais ça a une portée physique absolument immense
Je m'y étais déjà intéressé et oui la physique a des notions compliquées mais parfois c'est aussi très simple
en tous cas la formule associée Les mathématiques sont fantastiques mais bien trop souvent comprises que par des gens trop socialement inadaptés et donc difficiles à transmettre à ceux qui n'en ont que les bases scolaires élémentaires, pourtant il y a tellement à apprendre et parfois si on pense à reprendre le cheminement de pensée de manière chronologique plutôt que dans le sens des applications possibles, on pourrait peut-être mieux s'y retrouver
Cependant, en tant qu'adepte je persisterai toujours à dire que la physique n'est
qu'une application des mathématiques et c'est ce qui fait mon intérêt pour les mathématiquesPour avoir fait énormément de maths et de physique dans ma vie, oui, la physique c’est principalement une application des maths saupoudrée de quelques expériences
Le résultat le plus beau de la physique, le théorème de Noether, est un résultat (quasi) purement mathématique et son application en physique ne découle que de propriétés de l’univers extrêmement abstraites (pour faire simple, ça permet de montrer l’équivalence entre conservation de l’énergie et invariance temporelle de l’univers - entre autres résultats de la même envergure)
Et non les matheux ne sont pas tous inadaptés sociaux, c’est juste qu’un paquet de profs de maths au lycée sont des incapables
Effectivement, ils ne le sont pas tous ce serait forcément une erreur de l'affirmer mais la réputation des mathématiques mériterait une petite remise à neuf, cela fait trop longtemps qu'elle a perdu ses parures et ses lettres de noblesse 
Sans compter l'étanchéité du monde de la recherche en mathématiques pour le commun des mortels, il y a un énorme chantier pour que la majeure partie des gens retrouve ne serait-ce que le même attrait qu'il y a pour la physique et c'est désespérant selon moi, comment faire pour que ce qui est une des disciplines les plus enrichissantes soit considérée comme telle et perde sa réputation diffamatoire 

Le 18 mai 2021 à 23:37:03 :
Une dimension de notre monde
Une dimension oui, de notre monde, c'est imprécis _.gif)
Le 19 mai 2021 à 07:18:26 :
Je dirais que c'est la mesure rationnelle d'un phénomène abstrait sur lequel l'Homme essaie d'avoir une emprise.
Essaye encore, j'ai demandé à ce qu'on définisse le temps et pas les secondes
JvArchive compagnon