«Aprovechamiento de la entropía y la información: la clave para comprender cómo luchar contra Trump y otros populistas».

Eve, este… este artículo es tan poco científico e inconsistente que creo que nuestros lectores con conocimientos de física y química disfrutarán especialmente desarmándolo. Incluso si eres sólo un nerd en la escuela secundaria. Pero no es difícil ver cómo trata el autor el concepto de entropía. La entropía es la tendencia de un sistema a avanzar hacia un estado más caótico con el tiempo. Un buen ejemplo de baja entropía es el antiguo ruido estático de un televisor cuando la señal se apaga, es plana y sin cambios. Y sin contenido informativo (a menos que los malvados Rooskies envíen señales de control mental de muy alta frecuencia), es más bien revelador que el autor, un profesor de matemáticas, está haciendo un mal uso o malinterpretando el concepto de entropía (o lo que él cree que los legos creen que significa). para darle poder para hablar de política. De lo contrario Este artículo intenta describir las fluctuaciones debidas al aumento de la entropía. La fluctuación es el resultado de que se bombea más energía al sistema. Puede provocar cambios de estado y los sistemas de energía superior pueden parecer más perturbados. (vapor y agua) pero se requiere energía para mantener u organizar el sistema1 Quizás no quiera considerar que el populismo exige un sistema de orden diferente. (valores tradicionales Los estados más pequeños se quejan de «libertad» o de un progreso que es muy vacío. Más impuestos, más riqueza, más servicios sociales. intervención estadounidense y la Unión Europea y otros países están disminuyendo) y eso es antes de llegar al hecho de que La tan lamentada polarización es un grado no pequeño de amplificación por parte de los algoritmos de las redes sociales. Implicación emocional como en contenido extremo. Las élites que demonizan el populismo cuentan la historia de su oposición al caos de la democracia. y más bien usar la fuerza (Control de datos) en lugar de una mayor responsabilidad Por Dorje C. Brody, profesor de matemáticas Universidad de Surrey Publicado originalmente en The Conversation El emocionante regreso del presidente Donald Trump ante los votantes presidenciales de EE. UU. Sorprende al mundo No hay duda de que la gente puede señalar varias explicaciones. Mucho sobre su victoria electoral. Pero en mi opinión La ciencia de datos allana el camino para una comprensión más profunda. A menos que los demócratas y los demócratas de todo el mundo puedan desarrollar una mejor comprensión de cómo la gente recibe y rechaza la información. Nunca entenderán completamente lo que pasó ni lucharán con éxito en futuras elecciones. Existe una ley fundamental de la naturaleza que en la ciencia física se conoce como segunda ley. Esto dice que con el tiempo El ruido domina la información. y reina la incertidumbre. El orden será abrumado por el caos. De una sola partícula al universo entero Todo sistema conocido por la ciencia sigue esta regla. Eso incluye también los sistemas políticos o sociales. Cada vez que avanza la tecnología de la comunicación La gente hará circular cada vez más información innecesaria o inexacta. en el sistema político Esto es lo que conduce al dominio acústico descrito en la segunda ley. en ciencia La cantidad utilizada para medir el grado de incertidumbre se llama entropía. Por tanto, la segunda ley establece que la entropía sólo puede aumentar. Al menos en promedio Sin embargo, la entropía no disminuye de forma natural. Pero es posible reducirlo utilizando energía. cual es el costo Éste es el significado de la vida: creamos orden en nuestro interior. Esto reduce la entropía. Utilizando energía en forma de alimentos. Para que el sistema biológico sobreviva Es necesario reducir la incertidumbre sobre el medio ambiente. Hay dos tendencias en conflicto: no nos gusta la incertidumbre y nos esforzamos por reducirla. Pero vivimos en un mundo dominado por una incertidumbre cada vez mayor. Comprender el equilibrio de estas dos fuerzas es clave para apreciar algunos de los fenómenos sociales más desconcertantes, como por qué la gente votó por un hombre que había sido condenado por múltiples delitos. y señala claramente sus tendencias autoritarias. El mundo está lleno de incertidumbre. Y la tecnología de la información está aumentando esa incertidumbre a un ritmo increíblemente rápido. Los avances en la IA no hacen más que alimentar más incertidumbre. Y seguirá haciéndolo a niveles que van más allá de la imaginación. En el mundo occidental no regulado de Internet Los gigantes tecnológicos han creado monstruos de ruido e incertidumbre para alimentarnos. El resultado es una entropía en rápido crecimiento: una sensación de desorden en todo momento. Como sistema biológico Cada uno de nosotros tiene este deseo de reducir esta entropía. Por eso instintivamente evitamos fuentes de información que no se alinean con nuestras opiniones. Crearán incertidumbre. Si eres un votante liberal o de izquierda. Y me encontré evitando las noticias después de que Trump fuera reelegido. Puede estar relacionado con su deseo de minimizar la entropía. necesidad de certeza La gente a menudo se confunde en cuanto a por qué la sociedad se ha vuelto más polarizada. Y los datos están cada vez más segmentados. La respuesta es simple: Internet, las redes sociales, la inteligencia artificial y los teléfonos inteligentes están liberando entropía a un ritmo nunca antes visto en la historia del mundo. Ningún sistema biológico se ha enfrentado jamás a semejante desafío. Incluso si se trata de un sistema personalizado. Se necesitan medidas drásticas para recuperar la certeza. Incluso si es una falsa certeza. Trump comprende el hecho de que la gente necesita tranquilidad. Ofreció garantías una y otra vez: «Lo arreglaré». Si él quisiera o no es una cuestión más complicada. Pero pensar en ello sólo genera incertidumbre. Por eso es mejor evitarlo. De lo contrario Los demócratas simplemente están ofreciendo un respaldo al status quo de incertidumbre prolongada. Mientras Trump anunció que pondría fin a la guerra en Gaza, Kamala Harris señaló que haría todo lo que estuviera en su poder para poner fin a la guerra. Pero la administración Biden-Harris ha estado haciendo eso durante algún tiempo con pocos avances. Mientras tanto, Trump anunció que pondría fin a la guerra en Ucrania. Harris señaló que se enfrentaría a Putin. Pero la administración Biden-Harris simplemente está enviando armas a Ucrania para prolongar la guerra. Si eso es lo que “Oponerse a Putin” significa que a la mayoría de los estadounidenses les gustaría ver caer los precios de los alimentos desde el final de la guerra. Harris argumentó que Trump es un fascista. Esto puede resultar cierto. Pero el significado es claro para la mayoría de los estadounidenses. Sin embargo, el mensaje de esperanza en la campaña de Harris fue una buena iniciativa. Pero los demócratas no han logrado transmitir confianza y tranquilidad. Asimismo, no logran controlar el espacio de información. por encima de todo Le fallaron al pueblo estadounidense. Porque aunque Trump pueda poner fin a las guerras en Ucrania y Gaza de alguna forma, Pero sus políticas climáticas perjudicarán a todos los estadounidenses. Tendrá un impacto duradero. Si no entiendes la ciencia de los datos El actual juego de culpas no está llevando a los demócratas a ninguna parte. Y hay lecciones que aprender para otros gobiernos de izquierda, como el gobierno laborista del Reino Unido. No es inconcebible que el ex Primer Ministro Boris Johnson, alentado por los acontecimientos en Estados Unidos, Esperamos un dramático regreso al trono en las próximas elecciones generales. Si ese es el caso, el primer ministro Keir Starmer tendrá que encontrar una manera de evitar seguir los pasos de Biden y Harris. Tendrá que brindar tranquilidad y tranquilidad a la gente. ____ 1 Todo esto de un hilo de Reddit parece útil: usted. puedo llamarlo así Puede ser una «anomalía» para la gente corriente. Pero no es muy preciso. La entropía es una medida de cantidad. Las “posibilidades” (microestados, es decir, configuraciones atómicas) corresponden a lo que puedes “ver” (macroestados, es decir, temperatura, presión, etc.). Usaré un mundo hecho de Lego como ejemplo. Una sola pieza de Lego amarillo de 2×4 no tiene entropía. Esto es lo que ves: los Legos tampoco tienen entropía. Porque puedes verlo todo. La excepción es si no puedes ver las uniones entre las piezas. En este caso hay entropía porque no sabes si son dos Legos de 2×4 o 2×2 que tienen entropía porque lo único que puedes ver es el exterior. Matemáticamente, la entropía es S = k*ln(W), donde ln es el logaritmo natural, W es el número de microestados posibles que caben en un macroestado dado y k es un factor de conversión constante en. Depende del tipo de entropía que tengas. Hable sobre y: La entropía es una forma conveniente de describir la función de estado de un sistema. Mide la cantidad de formas en que se puede reorganizar un sistema y hacerlo parecer «idéntico» (por algún valor, «idéntico»). El problema en termodinámica es que se tiene una descripción amplia de un sistema (como una máquina de vapor o calor). motor) y la física (la teoría de las colisiones de partículas) de dicho sistema con un detalle exquisito e imposible de medir. Quiere aislar la física a gran escala del sistema: evolucionará en tamaño y qué tan observable es (p. ej. el vapor de agua se condensará ¿O parte del mercurio en contacto con el sistema se expandirá o contraerá?) Las funciones estatales son muy útiles en tales casos. Porque le dice algo sobre qué tan bien comprende la salud de su sistema. La función de estado es una medida del número de formas. donde puedes arreglar piezas pequeñas de su sistema que no son observables recientemente (como las moléculas de agua en una caldera de vapor) y aún coinciden con las observaciones a simple vista. (o predicciones hipotéticas) Esto es útil porque puede usar la función de estado para realizar cálculos muy amplios. cómo es probable que se desarrolle el sistema sin enumerar cada uno de los innumerables estados en los que podría encontrarse el sistema y asignar una probabilidad a cada estado. La entropía es solo el logaritmo de la función de estado. Es más útil porque En lugar de tratar con 101.000 órdenes de magnitud, por cierto se tratará con 1.000 órdenes de magnitud. La razón por la que la entropía tiende a aumentar es que hay muchas otras formas de estar en un estado de alta entropía. muchos desde el principio, por lo que si existe una probabilidad aproximada de que el sistema evolucione de diferentes maneras. Es muy probable que acabe en lo que llamaríamos un estado. «Alta entropía» es más de lo que se podría llamar. «Baja entropía» en termodinámica La razón por la que se requiere energía para reducir la entropía de un sistema es que Debes superar la estimulación aleatoria de cada parte del sistema para forzarlo a entrar en un estado conocido. Porque no sabes en qué estado comenzó el sistema. (De lo contrario, la entropía del sistema ya sería baja. Dado que tendrá suficiente conocimiento para reducir el valor de la función de estado), terminará desperdiciando algo de energía que no es técnicamente necesaria. Si sabes más sobre el sistema empujando algunas partículas (No sabes de antemano cuál) va en la dirección correcta para tu operación de reducción de entropía. El demonio de Maxwell es un hipotético gnomo omnisciente que puede reducir la entropía sin desperdiciar energía. Separando las partículas inmediatamente. Pero con la llegada de la mecánica cuántica Sabemos que el conocimiento siempre cuesta energía. Y el demonio hipotético de Maxwell no sería capaz de medir qué partículas se ordenarían y dónde. Sin embargo, la entropía está estrechamente relacionada tanto con la física como con la teoría. Porque es una medida de la cantidad de conocimiento. (o más específicamente, la cantidad de ignorancia) que tienes sobre el sistema. Debido a que se pueden secuenciar los estados de Sn con n cadenas de símbolos de tamaño S (por ejemplo, 2n números diferentes con una cadena de n bits), la longitud de la cadena de símbolos (o fragmento de memoria) en la teoría de la información Es similar a la entropía en un sistema físico. En cierto sentido, una medida de entropía física es la cantidad de bits que se necesitan para describir completamente un sistema basándose en el conocimiento macroscópico que ya se tiene. Por cierto, en el siglo XIX se define la tropia. sólo como una constante aditiva. porque nadie lo sabe ¿Dónde está el «pequeño límite» en la función estatal? Y por tanto 0 está en el nivel de entropía. Después de la llegada de la mecánica cuántica Hemos aprendido que 0 es el estado de cuántico puro, con un año entero 0 porque el sistema en estado cuántico puro tiene un solo estado físico y el logaritmo (cualquiera que sea la base) de 1 es 0.

You May Also Like

More From Author

+ There are no comments

Add yours