Теория информации.

Система управления производством представляет собой совокупность взаимосвязанных элементов (информация, технические средства, специалисты, функции управления), обеспечивающие при их скоординированном взаимодействии реализацию поставленных целей.

Теория информации — это наука, изучающая коммерческие закономерности, связанные с получением, передачей, обработкой и хранением информации. Ее основные положения были сформулированы Сенноном в 40-х годах н.э. Теория информации является необходимым составляющим управления и играет важную роль в научном менеджменте.

Информация — наличие некоторых сведений о состоянии объекта и окружающей внешней среде. Любая информация, чтобы быть переданной, должна быть закодирована. Сигналами могут быть световые или световые импульсы, сигналы и т.д. Чтобы решить задачи информации, нужно научиться измерять количество объема передаваемой информации, пропускную способность канала.

Получила название Энтропии — меры неопределенного состояния физической системы.

Любое сообщение представляет собой совокупность сведений о некоторой физической системе. Степень неопределенности физической системы определяется не только числом его возможных состояний, но и числом его вероятностей.

Рассмотрим некоторую величину X, которое характеризует состояние системы. Тогда

Pi = P(X~xi) — вероятность того, что система при состоянии xi будет определяться этим выражением

xi

x1

x2

xn

Pi

P1

P2

Pn

Для описания степени неопределенной системы не важно численное значение каждого x, а важна степень.

В качестве меры априорного неопределения в теории применяется специальная единица измерения — энтропия. Понятие энтропии является основным

n

H(X) = - S Pi * log Pi

i = 1

Энтропия обладает рядом свойств:

1. Обращается в ноль, когда одно из составляющих достоверно, а другое состояние невозможно;

2. При заданном числе состояний она обращается в максимум, когда эти состояния равновероятны;

3. Обладает свойством адитивности, т.е. когда несколько независимых систем объединены в одну, то энтропия складывается.

xi

x1

x2

Pi

½

½

Алгоритм энтропии системы равен 1.

Надежность информации.

Надежность передачи информации определяется надежностью соединения элементов в информационной системе.

При последовательном соединении элементов выход из строя хотя бы одного элемента приводит к отказу всей системы. Вероятность безотказной работы будет равняться произведению вероятностей безотказной работы каждого элемента системы.

n n

Pc = P1*P2*…*Pn ; Pc = P Pc ; Pc(t) = P Pi (t) .

i = 1 i = 1

Если в уравнении вероятность безотказной работы одинакова, то

Pc(t) = P Pªi (t), где (a = n)

При параллельном соединении элементов система в целом отказывает при выходе из строя всех элементов. Вероятность отказа системы равно вероятности отказа всех элементов.

qc(t) = q1(t) * q2(t) * … * qn(t) ;

n n

qc(t) = P qi (t) ; Pc(t) = 1- P qi (t) — вероятность

i = 1 i = 1

безотказной работы.

Длительность передачи информации.

k1 k2 kr kn

Перейти на страницу: 1 2