Entropie
Notion utilisée dans deux acceptions différentes :
– en thermodynamique, principe indiquant que, lors de toute transformation d’énergie, une partie de celle-ci se retrouve inévitablement sous forme de chaleur. C’est donc un principe de dégradation de l’énergie empêchant de refaire le chemin inverse en vue de retrouver la totalité des facteurs originels;
– du point de vue de la théorie de l’information de Claude Shannon, l’entropie mesure le degré d’incertitude. Par extension, l’indice d’entropie sert à mesurer la concentration ou uns distribution statistique.
Si S(V) est le cumul des valeurs d’une variable donnée sur laquelle s’effectue la mesure de la concentration (chiffre d’affaires, effectifs…), pi est le poids relatif de l’unité i dans l’ensemble comprenant n unités; alors l’indice de Shannon est S(V) = somme pi(V) Log l/pi(V) avec i de 1 à n