Объяснение:
Информацио́нная энтропи́я — мера неопределённости некоторой системы (в статистической физике или теории информации), в частности непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.
Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии {\displaystyle n}n-го порядка, см. ниже) встречаются очень редко, то неопределённость уменьшается еще сильнее.
Поделитесь своими знаниями, ответьте на вопрос:
1.найти сумму и количество отрицательных элементов одномерного массива, состоящего из 21 элементов. элементы заполняются числами от (-25 до 15 2. найти произведение и количество отрицательных элементов одномерного массива, состоящего из 11 элементов. элементы заполняются числами от (-20 до 10). 3.найти сумму и количество положительных элементов одномерного массива, состоящего из 34 элементов. элементы заполняются числами от (-15 до 25).
Порты F0/10 коммутаторов SW1 и SW3, а также порт F0/24
коммутатора SW2 должны быть работать в режиме доступа без
использования согласования. Отключите протокол DTP явным образом.
2.2 Транк между коммутаторами SW2 и SW3 должен быть настроен без
использования согласования. Отключите протокол DTP явным образом.
2.3 Транки между коммутаторами SW1 и SW2, а также между SW1 и SW3,
должны быть согласованы по DTP, коммутатор SW1 должен
инициировать создание транка, а коммутаторы SW2 и SW3 должны
ожидать начала согласования параметров от соседа, но сами не
инициировать согласование .
Между всеми коммутаторами настройте транки с использованием протокола IEEE 802.1q