<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0"
					xmlns:content="http://purl.org/rss/1.0/modules/content/"
					xmlns:wfw="http://wellformedweb.org/CommentAPI/"
					xmlns:atom="http://www.w3.org/2005/Atom"
				  >
<channel>
<atom:link rel="self"  type="application/rss+xml"  href="http://rulinux.net/rss_from_sect_4_subsect_10_thread_6592"  />
<title>rulinux.net - Форум - Talks - дал тут свое определение энтропии на одном из форумов</title>
<link>http://rulinux.net/</link>
<description><![CDATA[Портал о GNU/Linux и не только]]></description>
<image><title>rulinux.net - Форум - Talks - дал тут свое определение энтропии на одном из форумов</title>
<link>http://rulinux.net/</link>
<url>http://rulinux.net/rss_icon.png</url>
</image>
<item>
<title>Re: дал тут свое определение энтропии на одном из форумов</title>
<link>https://rulinux.net/message.php?newsid=6592&amp;page=1#44209</link>
<guid>https://rulinux.net/message.php?newsid=6592&amp;page=1#44209</guid>
<pubDate>Wed, 31 Mar 2010 03:18:10 +0400</pubDate>
<description><![CDATA[<p><i>> Гуглобот прав. Любое конкретное расположение имеет одинаковую вероятность. Это только человечий глаз видит что какое-то конкретное расположение более упорядочено. На самом деле, вдруг ты видишь, что они разбросаны в беспорядке, а на самом деле подчиняются какому-то хитрому математическому закону? Поэтому энтропия вообще не применима к неподвижным объектам, она зависит от функции распределения. Вот в ситуации если бы допустим каждый день стулья в комнате весь день каким-то образом двигали, а вечером ты приходил бы и проверял их расположение, уже можно вычислить энтропию через много дней. Если каждый день расположение стульев совсем другое - энтропия больше, а если они расположены более предсказуемо - меньше. Поэтому в данном случае энтропию можно понимать как меру предсказуемости.</i><br> Принципиально это определение точно такое же как у Вильфреда: У него стулья собраны в одой части комнаты а у тебя щепки и части собраны в стулья.</p><p>и да: каждое конкретное распределение имеет одну и туже вероятность, но при одинаковой равмномерной модели. В этом случае мы уже а приори знаем что стулья ведут себя одинаково. Здесь и ты и  googlebot анонимус прывы.</p><p>и нет: если модель только частична известна.</p><p>Например: предположем у нас 1 мерная комната 0 < 10, и мы знаем что стулья распределены равномерно U[a,b], 0< =a< =b, и независимы. i.i.d</p><p>А теперь рассмотрим две ситуации:</p><p>А) у нас 4 стула: находятся на координатах 0, 2, 2.5, 10 то мы можем 100 % сказать что распределение U[0,10]</p><p>Б) ситуация следующая, у нас 4 стула: на координатах 0, 2 , 2.5, 5, теперь мы не сможем сказать 100 % что распределение U[0,10].</p><p>Только как квалифицировать энтропию на основе распределения я не знаю. Может по носителю или может по дисперсии ? Я бы сказал что вариант А как вариант с большей вероятностю с большим носителем и дисперсией  более "хаотичен".</p><p></p>]]></description>
</item>
<item>
<title>Re: дал тут свое определение энтропии на одном из форумов</title>
<link>https://rulinux.net/message.php?newsid=6592&amp;page=1#44208</link>
<guid>https://rulinux.net/message.php?newsid=6592&amp;page=1#44208</guid>
<pubDate>Wed, 31 Mar 2010 02:30:44 +0400</pubDate>
<description><![CDATA[<p><i>>>есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.</i><br><i>>>природа устроена так, что стулья стремятся равномерно распределиться по комнате - это и есть энтропия</i><br> <i>>нет, простыми перестановками энтропию не увеличить - в конце концов это всего-лишь один из возможных вариантов, ничем не отличающийся от других) правильнее было бы:</i><br> <i>> есть комната, в ней 20 стульев, стульев всего 20 и энтропия маленькая. но с течение времени стулья обветшали: у одного отвалилась ножка, у другого спинка, количества "частей" в комнате все растет и растет, все больше и больше вариантов их взаимного расположения, в конечном итоге в комнате наступает хаос - везде валяются щепки, куски обшивки, во всем этом бардаке нельзя даже понять чем это все когда-то было. вот это и есть энтропия:)</i><br> Принципиально это определение точно такое же как у Вильфреда: У него стулья собраны в одой части комнаты а у тебя щепки и части собраны в стулья.</p><p></p>]]></description>
</item>
<item>
<title>Re: дал тут свое определение энтропии на одном из форумов</title>
<link>https://rulinux.net/message.php?newsid=6592&amp;page=1#44207</link>
<guid>https://rulinux.net/message.php?newsid=6592&amp;page=1#44207</guid>
<pubDate>Tue, 30 Mar 2010 22:35:27 +0400</pubDate>
<description><![CDATA[<p>Гуглобот прав. Любое конкретное расположение имеет одинаковую вероятность. Это только человечий глаз видит что какое-то конкретное расположение более упорядочено. На самом деле, вдруг ты видишь, что они разбросаны в беспорядке, а на самом деле подчиняются какому-то хитрому математическому закону? Поэтому энтропия вообще не применима к неподвижным объектам, она зависит от функции распределения. Вот в ситуации если бы допустим каждый день стулья в комнате весь день каким-то образом двигали, а вечером ты приходил бы и проверял их расположение, уже можно вычислить энтропию через много дней. Если каждый день расположение стульев совсем другое - энтропия больше, а если они расположены более предсказуемо - меньше. Поэтому в данном случае энтропию можно понимать как меру предсказуемости.</p>]]></description>
</item>
<item>
<title>Re: дал тут свое определение энтропии на одном из форумов</title>
<link>https://rulinux.net/message.php?newsid=6592&amp;page=1#44206</link>
<guid>https://rulinux.net/message.php?newsid=6592&amp;page=1#44206</guid>
<pubDate>Tue, 30 Mar 2010 20:29:47 +0400</pubDate>
<description><![CDATA[<p><i>>есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.</i><br> <i>>природа устроена так, что стулья стремятся равномерно распределиться по комнате - это и есть энтропия</i><br></p><p> нет, простыми перестановками энтропию не увеличить - в конце концов это всего-лишь один из возможных вариантов, ничем не отличающийся от других) правильнее было бы:</p><p>есть комната, в ней 20 стульев, стульев всего 20 и энтропия маленькая. но с течение времени стулья обветшали: у одного отвалилась ножка, у другого спинка, количества "частей" в комнате все растет и растет, все больше и больше вариантов их взаимного расположения, в конечном итоге в комнате наступает хаос - везде валяются щепки, куски обшивки, во всем этом бардаке нельзя даже понять чем это все когда-то было. вот это и есть энтропия:)</p><p>аддед: хотя я тут подумал, если брать функцию вероятности от того, что человек, проходя через случайное место, споткнется об стул, то при равномерном распределении энропия все же больше)</p>]]></description>
</item>
<item>
<title>Re: дал тут свое определение энтропии на одном из форумов</title>
<link>https://rulinux.net/message.php?newsid=6592&amp;page=1#44205</link>
<guid>https://rulinux.net/message.php?newsid=6592&amp;page=1#44205</guid>
<pubDate>Tue, 30 Mar 2010 18:56:50 +0400</pubDate>
<description><![CDATA[<p>Энтропия - это функция вероятности состояния по возможным состояниям. Состояние что все 20 стульев окажутся в углу вместе маловероятно - значит энтропя маленькая. Состояние, что они все точно равномерно распределяться - тоже маловероятно (по-моему), значит тоже энтропия маленькая. В природе, вроде, стулья стремяться хаотично разбросаться по комнате.</p>]]></description>
</item>
<item>
<title>дал тут свое определение энтропии на одном из форумов</title>
<link>https://rulinux.net/message.php?newsid=6592&amp;page=1#44204</link>
<guid>https://rulinux.net/message.php?newsid=6592&amp;page=1#44204</guid>
<pubDate>Tue, 30 Mar 2010 18:50:00 +0400</pubDate>
<description><![CDATA[<p>верно или нет?</p><p>есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.</p><p>природа устроена так, что стулья стремятся равномерно распределиться по комнате - это и есть энтропия</p><p>????</p>]]></description>
</item>
</channel>
</rss>