Количество информации как мера уменьшения неопределенности (вероятностный подход) с точки зрения отдельного человека, ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. при этом количество одной и той же информации может быть оценено различными людьми по-разному. для объективного измерения количества информации необходимо формализовать . будем считать события равновозможными, если мы не располагаем заранее никакой информацией (статистическими данными, логическими умозаключениями и т. о том, что шансы одного из событий выше или ниже, чем шансы любого другого. при этом имеется в виду, что в результате опыта обязательно наступит какое-либо событие и притом только одно. так, например, при подбрасывании монеты выпадение орла или решки можно считать равновозможными событиями, предполагая монету идеальной, то есть исключив из рассмотрения возможность других исходов ("зависла в воздухе", "встала на ребро"), а также влияние на исход опыта чеканки на сторонах монеты, отклонения формы реальной монеты от правильной и т. д. чем больше равновозможных событий, тем больше неопределенность ситуации. минимальный размер сообщения о том, что произошло одно из двух равновозможных событий, равен одному биту. информацию о том, что произошло первое событие, можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие – единицей. для уменьшения неопределенности в два раза (вместо двух возможных событий – одно реально произошедшее) требуется один бит информации. иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза, несет один бит информации. если его длина, подсчитанная с использованием алфавитного подхода, больше, значит сообщение несет избыточную, с точки зрения уменьшения неопределенности, информацию. если информация представлена в виде дискретного сообщения, то логично считать количеством информации его длину, то есть общее число знаков в сообщении. но длина сообщения зависит не только от содержащейся в нем информации. на нее влияет мощность алфавита используемого языка. чем меньше знаков в используемом алфавите, тем длиннее сообщение. так, например, в алфавите азбуки морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой или латинской буквы нужно использовать несколько знаков, и текст, закодированный по морзе, будет намного длиннее, чем при обычной записи. пример: сигнал sos: 3 знака в латинском алфавите; 11 знаков в алфавите морзе: ··· пауза – – – пауза ···. для упорядочивания измерений информационный объем сообщений принято измерять в битах. один бит соответствует одному знаку двоичного алфавита. итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов. при этом совсем не обязательно уметь интерпретировать сообщения.
irinanikulshina144
20.10.2020
Function f(x: real): real; { возвращает значение функции y(x) для заданного х } begin f: =sqr(x)+4*x+3 end; var a,b,h: real; { начало интервала, конец интервала, шаг } x,y: real; { аргумент и значение функции } begin write('введите начало интервала, конец и шаг: '); read(a,b,h); x: =a; while x< =(b+0.001*h) do { 0.001*h добавляем для компенсации погрешности } begin writeln('x=',x,', y=',f(x)); x: =x+h end end. тестовое решение. введите начало интервала, конец и шаг: -2 2 0.2 x=-2, y=-1 x=-1.8, y=-0.96 x=-1.6, y=-0.84 x=-1.4, y=-0.64 x=-1.2, y=-0.36 x=-1, y=-4.44089209850063e-16 x=-0.8, y=0.44 x=-0.6, y=0.959999999999999 x=-0.4, y=1.56 x=-0.2, y=2.24 x=-2.77555756156289e-16, y=3 x=0.2, y=3.84 x=0.4, y=4.76 x=0.6, y=5.76 x=0.8, y=6.84 x=1, y=8 x=1.2, y=9.24 x=1.4, y=10.56 x=1.6, y=11.96 x=1.8, y=13.44 x=2, y=15 в решении хорошо видно, как часть чисел из-за погрешности машинного представления отображается неточно. в частности, мы "не попали" точно в х=0 и если бы табуляция шла на интервале [-2; 0] с шагом 0.2, то при в цикле условия x< =b без компенсации погрешности, мы бы не получили значение для х=0.