Федеральное агентство по образованию
Государственное образовательное учреждение
высшего профессионального образования
«Тихоокеанский государственный университет»
ТЕОРИЯ ИНФОРМАЦИОННЫХ
ПРОЦЕССОВ И СИСТЕМ
Методические указания
по выполнению лабораторных работ № 1-4
для студентов специальности 071900
«Информационные системы и технологии»
Хабаровск
Издательство ТОГУ
2005
УДК 621.391
Теория информационных процессов и систем : методические указания к лабораторным работам № 1–4 для студентов специальности 071900 «Информационные системы и технологии» / сост. А. В. Левенец. – Хабаровск : Изд-во Тихоокеанского гос. ун-та, 2005. – 32 с.
Методические указания разработаны на кафедре «Автоматика и системотехника». Лабораторные работы базируются на пакете расширения Simulink системы Mathlab 6.5 и предназначены для ознакомления студентов с принципами и особенностями работы отдельных блоков информационно-измерительных систем.
Печатается в соответствии с решениями кафедры «Автоматика и системотехника» и методического совета института информационных технологий.
ã Тихоокеанский
государственный
университет, 2005
ЛАБОРАТОРНАЯ РАБОТА № 1
МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ СИГНАЛОВ
Цель работы
: получение навыков моделирования случайных сигналов с заданными спектральными параметрами в среде Mathlab 6.5.
Основные сведения
Модельные преставления сигналов широко применяются в теории управления, теории обработки сигналов и временных рядов, теории передачи информации и во многих других областях. Модели сигналов могут быть как детерминированными, так и стохастическими (случайными). Случайные сигналы отличаются от детерминированных вероятностным характером своих параметров. Иными словами, невозможно точно предсказать какое именно значение приобретет случайный сигнал в каждый конкретный момент времени, но можно предсказать поведение процесса
в целом.
В задачах анализа и синтеза информационных систем детерминированные сигналы используются редко. Это следует из кибернетического определения информации, поэтому в информационных системах практически все сигналы можно считать реализациями случайных процессов с известными статистическими свойствами. При этом, сигналы можно воспринимать либо как шум (нежелательное влияние внешних искусственных и естественных источников на элементы системы), либо как собственно информацию. Именно поэтому для указанных выше задач необходимым инструментом является генератор случайных сигналов с заданными статистическими свойствами. Применение генератора позволяет в ряде случаев обойтись без натурных экспериментов, которые зачастую связаны с большими финансовыми и трудовыми затратами.
Простейшим видом случайного сигнала является случайная величина с равномерным распределением плотности вероятности. Обычно такой сигнал обозначают как Rav[a, b], где a и b верхняя и нижняя границы распределения случайной величины соответственно.
Часто на практике используются псевдослучайные генераторы (ПСГ), реализация которых осуществляется достаточно просто. Недостатком таких генераторов является период повторения выходных «случайных» значений. Тем не менее, в зависимости от конкретных задач, можно подобрать генератор такой разрядности, который обеспечит приемлемо большой период повторения. Так, 8-разрядный ПСГ обеспечивает максимальную длину псевдослучайной последовательности равную всего 255, для 16-разрядного генератора она составляет уже 65 535, а для 24-разрядного – 16 777 215 [1].
Цифровая генерация таких последовательностей может осуществляться, например, с помощью регистра сдвига с обратной связью (рис. 1). С помощью элемента «ИСКЛЮЧАЮЩЕЕ ИЛИ – НЕ» на последовательный вход DI регистра сдвига подается сумма по модулю 2 m-го (последнего) и n-го разряда регистра. Можно использовать сумму по модулю 2 и большего числа разрядов регистра.
Недостатком такой схемы является то, что у нее есть устойчивое состояние, когда в регистре содержатся все единицы. Из такого состояния генератор можно выводить, записывая в него нулевое состояние. Не при всех значениях n и m можно получить последовательность максимальной длины. В табл. 1 приведены оптимальные значения n и m вместе с длиной максимальной последовательности [1].
Таблица 1
Параметры псевдослучайных генераторов
m
|
N
|
Длина
|
m
|
n
|
Длина
|
3 |
2 |
7 |
18 |
11 |
262 143 |
4 |
3 |
15 |
20 |
17 |
1 048 575 |
5 |
3 |
31 |
21 |
19 |
2 097 151 |
6 |
5 |
63 |
22 |
21 |
4 194 303 |
7 |
6 |
127 |
23 |
18 |
8 388 607 |
9 |
5 |
511 |
25 |
22 |
33 554 431 |
10 |
7 |
1023 |
28 |
25 |
268 435 455 |
11 |
9 |
2047 |
29 |
27 |
536 870 911 |
15 |
14 |
32 767 |
31 |
28 |
2 147 483 647 |
17 |
14 |
131 071 |
33 |
20 |
8 589 934 591 |
Однако наиболее часто используемыми на практике являются случайные сигналы с нормальным (гауссовским) распределением, что обусловлено именно гауссовским характером большинства естественных и искусственных физических процессов в природе и технике.
Такие случайные величины часто представляют как гармонические колебания с фиксированной известной амплитудой А
и частотой w
0
, но случайной фазой φ
:
.
Фаза для большинства практически интересных случаев может быть представлена равномерно распределенной случайной величиной Rav[0, 2p].
Для получения из равномерно распределенного случайного сигнала гауссовского сигнала с приемлемыми статистическими свойствами обычно используют более сложные формулы. Например, в [2] предлагается следующая формула получения гауссовского случайного сигнала из равномерного:
,
где R(t) – выходной гауссовский сигнал, V(t) – входной сигнал с равномерным распределением.
Сигналы, полученные рассмотренными способами, имеют спектр, близкий к «белому». Это означает, что значения спектральных составляющих такого сигнала имеют примерно одинаковое значение для всей оси частот. Однако при исследовании поведения информационных систем часто требуется иметь «окрашенный» сигнал, т.е. сигнал имеющий неравномерный спектр. На рис. 2 приведены примеры белого и окрашенного случайного сигнала, причем сплошной толстой линией показан теоретический спектр.
а) «белый» спектр
б) «окрашенный» спектр
Рис. 2. Примеры спектров реальных моделей случайных сигналов.
Существует достаточно много методов моделирования гауссовских процессов. Из них можно выделить:
- методы, основанные на описании случайной функции n-мерной плотностью вероятности или бесконечной последовательностью обобщенных корреляционных, начальных моментных и характеристических функций;
- методы, основанные на представлении случайного процесса в виде детерминированной функции случайных величин. Для получения процессов с заданными свойствами применяется метод канонических разложений или описание нелинейными функциями от конечного числа случайных величин;
- методы, основанные на применении аппарата стохастических дифференциальных уравнений. Такие уравнения находят применение в задачах анализа поведения динамических систем при случайных воздействиях, а также в задачах обнаружения и оценивания параметров случайных сигналов;
- метод формирующего фильтра, базирующийся на формировании случайного процесса как выхода линейного фильтра, на вход которого подается белый шум. Импульсная характеристика фильтра выбирается в соответствии с требуемой формой спектра формируемого случайного сигнала. На выходе фильтра получается сигнал с требуемой формой спектральной плотности мощности. Случайный процесс, сформированный таким образом, принято называть процессом авторегрессии – скользящего среднего (АРСС-процессом).
Наиболее часто используется метод формирующего фильтра, т.к. позволяет получить широкий класс сигналов при манипулировании небольшим числом параметров.
Формирование выходного отсчета АРСС-модели случайного процесса происходит по следующей формуле:
,
где yi
– i-й отсчет выходного процесса; ai
– i-й коэффициент авторегрессионного фильтра; ci
– i-й коэффициент фильтра скользящего среднего; zi
– i-й отсчет входного гауссовского случайного процесса; p и q – порядки фильтров авторегрессии и скользящего среднего соответственно.
Таким образом, для формирования текущего значения используются как значения входного белого шума (СС-фильтр), так и сформированные на предыдущих шагах значения выходного процесса (АР-фильтр). Следует отметить, что если СС-фильтр еще можно спроектировать для работы только с предыдущими
значениями входного процесса, то АР-фильтру для правильного функционирования обязательно нужно использовать текущий
отсчет входного случайного процесса.
В зависимости от конкретных задач, измерительный сигнал может быть описан как APCC-, AP- или CC-процесс с конечным числом задающих параметров. Надо отметить, что наиболее часто в технических приложениях используются AP-модели случайных процессов не старше второго порядка [3, 4], т.к. зачастую повышение порядка модели не приводит к существенному повышению точностных параметров модели и слабо влияет на процесс принятия решения при проектировании информационно-измерительных систем (ИИС).
Спектральная плотность мощности (СПМ) АРСС-процесса определяется амплитудно-частотной характеристикой формирующего фильтра. Естественно, что на СПМ выходного процесса значительное влияние окажет вид СПМ исходного гауссовского случайного процесса. Для существующих стандартных генераторов характерно случайное, негладкое поведение СПМ, поэтому при проведении исследований прибегают к усреднению либо по входному воздействию, либо по выходной реакции системы.
В том случае, когда на вход фильтра подается идеальный гауссовский белый шум, СПМ выходного процесса можно вычислить как [3]:
,
где w – круговая относительная частота; s2
– дисперсия АРСС–процесса.
Учитывая все вышеизложенное и анализируя приведенную выше формулу, можно определить, что при s2
= 1 для АР- и СС-процессов АЧХ формирующих фильтров описывается следующими выражениями
– для АР-фильтра;
– для СС-фильтра.
Таким образом, используя метод формирующего фильтра, можно получить случайный сигнал с заданными спектральными свойствами при минимальных аппаратно-программных затратах. Однако следует учитывать и тот факт, что неидеальные параметры используемого генератора белого гауссовского шума могут существенно снизить практическую значимость метода формирующего фильтра.
Примечание
: При выполнении лабораторной работы следует использовать блоки библиотек пакета Simulink «Simulink» и «DSP blockset». Так, например, в качестве элемента задержки следует использовать блок «DSP Blockset ® Signal operation ® Integer delay». Вывод гистограмм осуществляется так, как показано на рис. 3. При этом блок «MATHLAB Function» взят из библиотеки «User-Defined Function». В качестве параметра блока следует указать функцию hist(u), а размерность выходной величины установить равной нулю. Блок буфера берется из библиотеки «DSP Blockset ® Signal management ® Buffers». Размер буфера выбирается равным размеру выборки, по которой производится построение гистограммы.
Наиболее важные блоки, использующиеся при выполнении лабораторных работ, приведены в приложении.
|
Задание
1) Исследовать стандартные генераторы случайных чисел с равномерным и нормальным распределением. Вывести графики полученных реализаций случайного сигнала, их СПМ, математическое ожидание и дисперсию, а также гистограммы.
2) Разработать генератор равномерно распределенных псевдослучайных величин, используя параметры табл. 2. Вывести основные статистические параметры полученной последовательности, гистограмму и СПМ. Использовать размер выборки не менее 128.
3) Используя стандартный генератор равномерно распределенных случайных чисел, сформировать генератор белого гауссовского шума. Параметры генератора выбираются из табл. 2 в зависимости от номера варианта. Вывести график полученной реализации случайного сигнала, его СПМ, математическое ожидание и дисперсию, а также гистограмму.
Изменение математического ожидания и дисперсии следует производить по следующей формуле:
,
где ri
– i-й отсчет выходного сигнала; m – требуемое математическое ожидание; Ri
– i-й отсчет исходного случайного сигнала с нулевым математическим ожиданием и единичной дисперсией; s2
– требуемая дисперсия.
4) Получить случайный процесс, используя метод формирующего фильтра. Тип формирующего фильтра и его коэффициенты выбираются из табл. 2 в зависимости от номера варианта. Для всех вариантов порядок используемых фильтров – 2. Вывести график полученного случайного сигнала, математическое ожидание и дисперсию, реальную и теоретическую СПМ, а также гистограмму полученной реализации.
Таблица 2
Варианты заданий
Вариант |
Параметры генератора равномерно распределенных случайных величин |
Параметры гауссовского случайного процесса |
Параметры АРСС-фильтра случайного процесса |
|||
Разрядность слова |
Разрядность регистра |
Математическое ожидание |
Дисперсия |
Тип фильтра |
Коэффициенты |
|
1 |
5 |
6 |
0,1 |
1,5 |
АР |
а1
|
2 |
6 |
9 |
0,5 |
2,2 |
АР |
а1
|
3 |
4 |
5 |
0,2 |
1,1 |
СС |
с1
|
4 |
5 |
7 |
0,3 |
4,5 |
АР |
а1
|
5 |
4 |
9 |
0,0 |
2,7 |
СС |
с1
|
6 |
5 |
11 |
0,4 |
1,8 |
СС |
с1
|
7 |
4 |
7 |
0,5 |
3,6 |
СС |
с1
|
8 |
6 |
6 |
0,3 |
0,6 |
АР |
а1
|
9 |
5 |
9 |
0,4 |
2,9 |
СС |
с1
|
10 |
4 |
7 |
0,1 |
4,7 |
АР |
а1
|
11 |
6 |
11 |
0,0 |
2,5 |
АР |
а1
|
12 |
5 |
7 |
0,3 |
1,6 |
СС |
с1
|
13 |
6 |
9 |
0,5 |
0,7 |
АР |
а1
|
14 |
4 |
7 |
0,8 |
3,0 |
СС |
с1
|
15 |
5 |
11 |
0,2 |
2,2 |
АР |
а1
|
Контрольные вопросы
1. Чем объясняется широкое применение моделей случайных сигналов как моделей информационных процессов при проектировании и отладке информационно-измерительных систем?
2. По какому принципу работают генераторы псевдослучайных последовательностей с равномерным распределением?
3. Какими способами можно преобразовать случайную величину с равномерным распределением в «гауссовскую»?
4. Чем отличаются спектры белого равномерного и белого гауссовского случайного процесса?
5. Перечислите методы моделирования гауссовских случайных процессов.
6. Чем отличаются спектры случайных процессов, построенных с помощью АР-фильтров от спектров случайных процессов, построенных с помощью СС-фильтров?
ЛАБОРАТОРНАЯ РАБОТА № 2
ДВОИЧНОЕ КОДИРОВАНИЕ ДАННЫХ
И ТАКТОВАЯ СИНХРОНИЗАЦИЯ
Цель работы
: изучение особенностей использования различных типов двоичного кодирования для систем тактовой синхронизации.
Основные сведения
Важной частью любой информационно-измерительной системы является подсистема синхронизации. Основной задачей этой системы – формирование и выделение сигналов синхронизации, что необходимо для правильного приема, обработки и передачи информации. Сигналы синхронизации делятся на две группы: тактовая синхронизация, позволяющая однозначно выделять элементарные единицы сообщения (например, биты), и групповая синхронизация, обеспечивающая уверенный прием групп элементарных элементов (байт, слов и т.п.).
Существуют два способа построения системы синхронизации. В первом случае для передачи сигналов синхронизации используется отдельный канал передачи. К недостаткам такой схемы можно отнести повышенную стоимость и перекрестные помехи между каналами, а к достоинствам – простоту реализации. Во втором случае сигналы синхронизации передаются в одном канале с передаваемой информацией, следовательно, приемный конец канала связи необходимо оборудовать специальными средствами выделения сигналов синхронизации из полезного сигнала. К достоинствам метода можно отнести снижение стоимости канала передачи, к недостаткам – повышение сложности приемо-передающей аппаратуры канала связи. Тем не менее, в настоящее время наиболее часто используется именно второй метод.
Высшим уровнем синхронизации в системах сбора и передачи информации считается групповая
синхронизация. Это утверждение подкрепляется тем фактом, что, имея синхронизированную только по тактам последовательность битов, приемник не в состоянии выделить из нее более крупные информационные элементы. Следовательно, говорить об обработке
информации не представляется возможным из-за ее фактического отсутствия.
Групповая синхронизация всегда осуществляется при уже установленной тактовой синхронизации. Обычно в информационной посылке содержатся два типа групп элементарных символов: слова
, несущие элементарный объем смысловой информации (например, символ или число) и кадры
, объединяющие несколько слов в одно информационное целое. Кадры необходимы для передачи некоторого объема связанной информации, например, части пересылаемого текста или файла.
Групповую синхронизацию можно проводить двумя способами: 1) вначале выделяются синхросигналы с частотой следования слов, а затем происходит кадровая синхронизация; 2) вначале обнаруживается кадровый синхросигнал, а затем происходит выделение сигналов пословной синхронизации.
Наиболее простой для решения задачей является выделение сигналов пословной синхронизации при наличии кадровой синхронизации. В этом случае используются простые умножители частоты. Единственным ограничением данного метода является требование одинаковости размера слов в кадре.
Тактовая
синхронизация состоит в выделении из группового телеметрического сигнала импульсного напряжения, когерентного частоте следования элементарных символов сообщения. Таким образом, тактовая синхронизация тесно связана со способами кодирования передаваемой информации.
В настоящее время в цифровых системах передачи информации используются различные структуры двоичных кодов. Все эти коды можно условно разделить на три группы [5]:
1) без возвращения к нулю (БВН);
2) с возвращением к нулю (ВН);
3) коды, использующие метод расщепленной фазы (РФ).
Основное различие структур рассматриваемых кодов заключается в использовании тактового интервала, предназначенного для передачи двоичного символа. Первая группа использует весь тактовый интервал для передачи символа. Вторая группа под символ использует только первую половину тактового интервала, а во второй половине всегда передается состояние «0».
Отличие метода расщепленной фазы от первых двух состоит в том, что каждая половина тактового интервала предназначена для передачи своего состояния сигнала. Так, высокий уровень в первой половине тактового интервала говорит о передаче состояния «1», а высокий уровень во второй половине означает состояние «0». Те состояния, когда в обеих обе половинах тактового импульса передаются одинаковые уровни, считаются недопустимыми. На рис. 4 приведены различные структуры двоичных кодов при передаче одного и того же сообщения.
Для различных задач используются различные группы кодов. Так, для передачи цифровой информации в компьютерах используют, в основном, коды без возврата к нулю. Остальные группы кодов, как правило, применяются при передаче сигналов на большие расстояния, когда на первое место выступает необходимость передачи вместе с информацией сигналов тактовой синхронизации.
Сигналы тактовой синхронизации выделяются при помощи системы фазовой автоподстройки (ФАП). Эта система отслеживает тактовую частоту входного сигнала, поэтому очень важным моментом является наличие в спектре входного сигнала ярко выраженной спектральной составляющей. При наличии такой составляющей, задача надежного захвата и слежения за тактовой частотой решается относительно просто.
Необходимо отметить, что рассмотренные коды обеспечивают различные величины вероятности ошибочного приема отдельного бита информации, которая определяется как [6]:
,
где Ф() – функция Лапласа; – отношение энергии полезного сигнала к спектральной плотности мощности помехи на входе приемника; ks
– коэффициент взаимной корреляции сигналов S
0
(
t
)
и S
1
(
t
)
, являющихся функциями формы сигналов нуля и единицы соответственно.
Коэффициент взаимной корреляции вычисляется следующим образом:
,
где T
0
– период тактового импульса.
Как было указано выше, вид спектра сигнала на входе приемника имеет большое значение для подсистемы синхронизации. Теоретическое спектральное представление для кода БВН можно описать следующим образом [5]:
где ; Т
с
– длительность элементарного символа (бита); а
n
принимает значения 0 и 1 с вероятностью 0,5.
Для кода ВН спектральное представление будет иметь аналогичный вид [5]:
.
Код РФ можно представить как произведение кода БВН и сигнала тактовой частоты. В этом случае спектр кода РФ может быть вычислен как свертка спектров функции БВН и функции сигнала тактовой частоты [5]:
,
где G
(
x
)
– спектр функции сигнала тактовой частоты.
Примечание
: При выполнении лабораторной работы следует использовать блоки библиотек пакета Simulink «Simulink», и «DSP blockset». Преобразование в последовательный код следует осуществлять с помощью сдвигового регистра, выполненного на триггерах «Simulink Extras ® Flip Flops». Необходимо согласовать временной параметр блока «Random Source» (Sample time) и величину времени моделирования для получения требуемой ширины полосы частот спектрограммы (не менее чем в 4–6 раз больше частоты поступления информационных сигналов).
Задание
1) Использовать в качестве источника информации, подлежащей передаче, генератор случайных сигналов «Random Source». Выход генератора преобразовать в цифровой сигнал с разрядностью 8. Каждый отсчет цифрового сигнала следует передавать побитно в заданном кодовом формате. Получить спектр сформированного сигнала не менее чем по 256 выборкам.
2) В качестве исходного сигнала использовать синусоидальный сигнал. Сформировать зашумленный сигнал, для чего добавить к сигналу синусоиды источник, определенный для каждого варианта. Необходимые данные для задания берутся из табл. 3 согласно варианту. Следует учитывать, что в данном случае отношение сигнал/шум (ОСШ) может быть определено как отношение мощностей сигнала и шума (r2
=А2
/s2
, где А – амплитуда синусоиды; s2
– дисперсия шума). Закодировать полученный сигнал, аналогично п. 1 задания и получить спектр сформированного сигнала.
3) Используя приведенную выше формулу и табличные данные, рассчитать вероятность ошибочного приема отдельного бита информации для заданного способа кодирования.
Таблица 3
Варианты заданий
Вариант |
Двоичный код |
Относительная частота синусоиды |
Тип шума |
ОСШ |
1 |
БВН |
0,1 |
Равномерный |
2,6 |
2 |
БВН |
0,3 |
Гауссовский |
1,7 |
3 |
РФ |
0,25 |
Равномерный |
1,0 |
4 |
ВН |
0,2 |
Гауссовский |
1,4 |
5 |
РФ |
0,05 |
Равномерный |
0,5 |
6 |
БВН |
0,3 |
Гауссовский |
1,0 |
7 |
ВН |
0,4 |
Равномерный |
0,7 |
8 |
ВН |
0,2 |
Равномерный |
2,0 |
9 |
БВН |
0,35 |
Гауссовский |
0,5 |
10 |
ВН |
0,15 |
Гауссовский |
1,5 |
11 |
РФ |
0,4 |
Равномерный |
2,6 |
12 |
РФ |
0,1 |
Гауссовский |
2,0 |
13 |
БВН |
0,35 |
Равномерный |
0,8 |
14 |
РФ |
0,4 |
Гауссовский |
1,8 |
15 |
ВН |
0,2 |
Равномерный |
2,3 |
Контрольные вопросы
1. Зачем нужны сигналы синхронизации?
2. Как связана задача синхронизации и способы кодирования передаваемой информации?
3. Почему в системах передачи данных находят большое распространение коды, использующие метод расщепленной фазы?
4. В каких областях применения можно использовать коды без возврата к нулю?
5. Назовите группы сигналов синхронизации и их назначение.
6. Какие способы используют при осуществлении групповой синхронизации?
ЛАБОРАТОРНАЯ РАБОТА № 3
ОПРОС ИСТОЧНИКОВ ИНФОРМАЦИИ
Цель работы
: получение основных сведений и практических навыков проектирования средств коммутации входных сигналов информационно-измерительных систем.
Основные сведения
Реальная информационно-измерительная система (ИИС) зачастую имеет большое число информационных входов. Одним из способов передачи информации от каждого источника на приемную часть ИИС является выделение отдельного канала связи под каждый информационный канал, однако стоимость такого метода весьма велика, поэтому на практике он практически не применяется. Более приемлемым способом, обычно и применяющимся на практике, является объединение потоков информации в один канал. Такое решение снижает трудовые и материальные затраты на создание ИИС, но при этом усложняются другие подсистемы ИИС, например, подсистема сбора информации. Одной из основных задач, решаемых этой подсистемой, становится группирование (объединение) потоков информации.
Группирование можно проводить как на входе ИИС, используя различного рода аналоговые коммутирующие устройства, так и перед передачей информации в канал связи. Следует учитывать, что второй случай приводит к существенному повышению как сложности ИИС, так и ее стоимости. Этот факт связан с необходимостью параллельной обработки входных информационных потоков, что приведет к существенному повышению требований к вычислительным ресурсам системы и дублированию обрабатывающих трактов ИИС. Поэтому разработчики предпочитают применять коммутацию входных информационных сигналов до начала их обработки.
Коммутирующие устройства можно охарактеризовать большим числом параметров, но основными из них можно считать:
- число каналов Nк
;
- частоту опроса каждого канала Fоп
i
;
- информативность коммутатора ;
- погрешность, вносимой в измерения;
- способ коммутации;
- способность к адаптации.
Наиболее простой способ организации коммутации сигналов с временным разделением канала состоит в использовании ключей (электромеханических, электронных и пр.), объединенных по выходу, причем число опрашиваемых каналов соответствует числу входов коммутатора. Информация из каждого канала поступает на выход коммутатора в течение периода времени, задаваемого генератором тактовых импульсов. Такой способ опроса каналов называется циклическим опросом
. Пример простейшего коммутатора, выполненного по схеме с циклическим опросом, приведен на рис. 5. На рисунке приняты следующие обозначения: ГТИ – генератор тактовых
импульсов, ЭК – электронный ключ, У – сигнал управления.
В этом случае каждому сигналу отводится свой интервал времени, в течении которого он передается на вход ИИС. Такой интервал времени называется канальным интервалом
. Время опроса всех сигналов, подключенных к коммутатору, называется периодом опроса коммутатора
. Необходимо учитывать, что при увеличении числа опрашиваемых каналов и фиксированном периоде опроса, канальный интервал уменьшается пропорционально числу подключаемых каналов.
В том случае, если разработчик использует такой метод, частоту опроса следует выбирать по наиболее динамическому источнику, что требуется для минимизации погрешности восстановления. Но в
каналов.
Неравномерный опрос можно реализовать и на базе простейшего коммутатора с циклическим опросом. Так, для повышения частоты опроса конкретного источника используют метод, называемый суперкомпозицией
. Суть его заключается в том, что один источник подключается на несколько входов коммутатора. Естественно, что в этом случае число входов коммутатора больше числа источников. Для сохранения равномерности интервала между опросами, что требуется для снижения их коррелированности или для уменьшения погрешности, необходимо соблюдать кратность общего числа входов и числа запараллеленных входов. Например, если число входов составляет 2а
, то число запараллеливаемых входов должно составлять ряд геометрической прогрессии: 1, 2, 4, …, 2а-1
. В этом случае линейка частот опроса составляет Fоп
, 2Fоп
, 4Fоп
, … 2а-1
Fоп
.
Более сложными методами формирования набора частот опроса каналов являются многоступенчатые системы опроса, которые используются для снижения массы и объемов измерительных цепей. Коммутаторы, на которые поступают сигналы непосредственно с датчиков, называют локальными
(ЛК). Обычно локальные коммутаторы имеют равное число входов. Это упрощает работу подсистемы синхронизации и приемной части всей системы. Коммутатор последней ступени обычно называют основным
(ОК). Пример многоступенчатого коммутатора показан на рис. 6.
Двухступенчатый метод коммутации можно использовать для снижения частоты опроса. Такой метод называют методом субкоммутации
. Он необходим, например, в технических системах, где требуется измерять медленно меняющуюся величину или измерять не изменяющиеся в текущем режиме работы величины, по которым происходит контроль системы. Пример структурной схемы 12-канального коммутатора, реализующего субкоммутацию четырех каналов С1
– С4
, приведен на рис. 7.
Работа такого коммутатора происходит следующим образом. Основной коммутатор ОК производит последовательный циклический опрос каналов S1
…S8
, причем при каждом опросе канала S3
происходит опрос только одного из каналов С1
– С4
. Таким образом, период опроса одного и того же канала Сi
будет в четыре раза больше, чем период опроса любого из каналов Si
(исключая канал S3
). При дальнейшем увеличении числа входов субкоммутатора СК, частота опроса его каналов будет пропорционально снижается.
Опрос каналов многоступенчатого коммутатора может производиться двумя способами – последовательным и чередующимся опросами. При первом из них, происходит полный опрос всех каналов коммутаторов более низкого уровня, а затем выполняется переход на следующий канал текущего коммутатора. Чередующийся же опрос характерен тем, что каждый раз при опросе коммутатора нижнего уровня, происходит опрос только одного из его каналов.
Примечание
: При выполнении лабораторной работы следует использовать блоки библиотек пакета Simulink «Simulink», «DSP blockset» и «Simulink Extras». В качестве коммутирующего элемента следует выбирать элемент «Simulink®Signal Routing®Multiport Switch». Счетчик для управления коммутатором находится в разделе «DSP blockset ® Signal Management ® Switches and Counters». На входы коммутатора следует подавать сигналы с генераторов случайных сигналов, заданных в «DSP Blockset®Sources».
Задание
1) Реализовать коммутатор с простым циклическим опросом. Число каналов коммутатора равно числу входных источников сигнала и определяется по табл. 4. Вывести групповой сигнал АИМ;
2) Согласно варианту задания реализовать систему многоступенчатого опроса источников информации. При реализации трехступенчатых коммутаторов число каналов локальных коммутаторов выбирается равной двум. Вывести групповой сигнал АИМ, рассчитать информативность коммутатора, принимая базовую частоту опроса за единицу.
Таблица4
Варианты заданий
Вариант |
Общее число источников информации |
Число ступеней |
Число каналов субкоммутатора |
Число каналов с суперкомпозицией |
Набор частот для суперкомпозиции |
1 |
8 |
2 |
4 |
1 |
4х |
2 |
6 |
2 |
2 |
3 |
2х, 4х, 6х |
3 |
10 |
3 |
3 |
2 |
2х, 6х |
4 |
6 |
2 |
2 |
2 |
2х, 4х |
5 |
10 |
3 |
3 |
1 |
8х |
6 |
8 |
3 |
2 |
3 |
2х, 4х, 6х |
7 |
7 |
2 |
3 |
3 |
2х, 4х, 6х |
8 |
12 |
3 |
4 |
2 |
4х, 6х |
9 |
6 |
2 |
2 |
1 |
6х |
10 |
8 |
2 |
4 |
1 |
4х |
11 |
7 |
2 |
2 |
3 |
2х, 4х, 6х |
12 |
10 |
3 |
3 |
2 |
2х, 4х |
13 |
7 |
2 |
2 |
2 |
2х, 6х |
14 |
6 |
2 |
3 |
1 |
8х |
15 |
12 |
3 |
4 |
3 |
2х, 4х, 6х |
Контрольные вопросы
1. В чем состоит необходимость группирования потоков сообщений?
2. Как называется сигнал на выходе коммутирующего устройства?
3. Назовите основные параметры коммутаторов.
4. Почему при реализации метода суперкоммутации выбирают число запараллеленных входов кратным 2n
?
5. Какие коммутаторы называют локальными?
6. Назовите основные преимущества использования многоступенчатых коммутаторов?
7. Что такое «канальный интервал»?
8. В каких случаях используется неравномерный опрос источников информации?
ЛАБОРАТОРНАЯ РАБОТА № 4
АЛГОРИТМЫ СЖАТИЯ АНАЛОГОВЫХ ДАННЫХ
Цель работы:
получение основных сведений и практических навыков разработки подсистем однопараметрического сжатия аналоговых данных информационно-измерительных систем.
Основные сведения
По мере развития систем измерения и передачи информации, объем передаваемых данных как внутри самой системы, так и по каналам связи неуклонно возрастал. Вскоре разработчики столкнулись с физическими ограничениями существующей и даже перспективной аппаратуры связи и связных каналов. Требовалась либо слишком большая полоса частот, либо слишком большое время обработки информации, либо слишком большие объемы запоминающих устройств и т.д. При этом проведенные исследования показали, что далеко не вся передаваемая информация была одинаково ценной, т.е. часть её была избыточной
, по некоторым оценкам, в среднем до 70 % от общего объема. Естественным следствием стала разработка средств и алгоритмов сжатия информации, т.е. средств передачи только полезной, безызбыточной информации.
Избыточность информации в первую очередь связана с неизбежной коррелированностью выборок при дискретизации, т.е. соседние выборки всегда информационно связаны друг с другом. С другой стороны, регистрируемые параметры зачастую являются нестационарными, что также подразумевает неоднородность данных по информационной ценности.
Так, например, в электроэнергетике ряд параметров качества (напряжение, частота) поставляемой электроэнергии в штатных режимах работы энергосистемы имеют стационарный характер. Однако в случае возникновения аварийных ситуаций, по поведению этих параметров можно судить о характере причины, вызвавшей эту аварию. В подобных случаях очень важно иметь данные о поведении критических параметров непосредственно до и во время аварии. Таким образом, при штатном режиме работы не требуется большого объема передаваемой информации, но в аварийном режиме канал связи может быть переполнен важными данными.
Следовательно, при разработке ИИС следует учитывать такую информационную неоднородность и применять специальные методы и средства сокращения избыточности информации (сжатия), причем в случае нестационарного сигнала они должны быть адаптивными
.
Суть методов сжатия данных сводится к анализу поступивших выборок измерительного сигнала и передаче на приемную сторону только тех из них, которые несут максимальное количество информации. Такие выборки называются существенными
.
Методы сжатия данных могут классифицироваться по различным признакам, однако на настоящий момент наиболее часто используется следующая классификация:
1. Адаптивные и неадаптивные;
2. Необратимые и квазиобратимые.
Отличие адаптивных
и неадаптивных
методов заключается только в их способности приспосабливаться к измерительному сигналу. Первые могут это делать, а вторые разработаны под априорно известные свойства измерительного сигнала.
Квазиобратимые
методы уменьшают число координат исходного сообщения так, чтобы при восстановлении погрешность не превышала заданного значения
. Таким образом, говорить о полном восстановлении сигнала нельзя, всегда есть некоторая погрешность восстановления
. В свою очередь, квазиобратимые методы делятся на две группы: а) методы, уменьшающие объем каждой выборки; б) методы, уменьшающие число передаваемых выборок.
Объем выборки может быть уменьшен, во-первых, за счет неравномерного адаптивного квантования динамического диапазона выборок, во-вторых, статистическим кодированием значений выборок, в-третьих, нелинейным преобразованием шкалы сообщения. Еще один метод такого класса связан с устранением постоянной (или изменяющейся по известному закону) составляющей исходного измерительного сигнала.
Особенность необратимых
методов состоит в их способности удалить из измерительного сигнала всю «ненужную» информацию, за счет чего и достигается существенное сокращение объема передаваемой информации. Обычно такие методы используются при отсутствии априорных данных об обрабатываемом параметре. Для некоторых процессов это единственно возможные методы сжатия. Например, случайный процесс с высокочастотным широкополосным спектром возможно сжать только таким методом, т.к. квазиобратимые методы в этом случае не дают выигрыша в объеме сообщения, а иногда и увеличивают его.
Следует отметить, что все вышеизложенное относится только к измерительным аналоговым
сигналам. Именно аналоговые сигналы невозможно передать без искажения, с нулевой погрешностью восстановления. Для дискретных же сигналов такого ограничения нет. Так, в компьютерной технике широко используются специальные программы-архиваторы, сжимающие цифровую
информацию и затем полностью восстанавливающие ее.
Эффективность процедур сжатия обычно определяется по отношению к некоторой оптимальной процедуре. На практике это либо равномерно-временная циклическая дискретизация, либо некоторая оптимальная идеальная процедура, которая позволяет получить в каждом отсчете максимум полезной информации). Однако наибольшее распространение на практике получил первый принцип.
Самой показательной характеристикой метода сжатия данных является коэффициент сжатия, который можно определить как отношение объемов сообщения до и после сжатия. Однако следует отметить, что для правильного восстановления сообщения, необходимо использовать еще и служебную
информацию. Это приводит к тому, что реальный коэффициент сжатия необходимо вычислять по следующей формуле:
,
где I0
– объем исходной информации; Iсж
– объем сжатой информации; Iсл
– объем служебной информации.
Следует отметить, что даже если отношение исходного объема информации и объема сжатых данных будет больше единицы
, то реальный коэффициент сжатия может быть как больше
, так и меньше
единицы.
Немаловажным параметром является помехоустойчивость алгоритмов сжатия, которая определяется следующим образом:
, где RП
и RСЖ
– средние потери до и после сжатия;
,
где s и sош
– дисперсия ошибки восстановления до и после сжатия, pi
ош
и pi
ош.сж.
– вероятности ошибок передачи не сжатого и сжатого сообщения в канале соответственно.
До сих пор все рассмотренные параметры были относительными. Абсолютную оценку эффективности алгоритма можно получить в том случае, если использовать понятие энтропии сообщения. Например, коэффициент m показывает насколько алгоритм сжатия приближается к идеальной процедуре сжатия:
,
где Нсж
(х) – энтропия после применения метода сжатия, Нmax
(х) – максимально возможное количество информации содержащееся в отсчете измеряемого случайного процесса.
Качество воспроизведения информации принято оценивать следующим коэффициентом:
,
где Нош
(y) – потери информации за счет ошибок (энтропия ошибки).
Важным показателем также является время задержки при восстановлении сообщения. Это время определяется как интервал между моментом поступления очередной выборки на вход блока сжатия и моментом восстановления ее значения на приемной стороне.
На практике алгоритмы сжатия данных можно разделить на однопараметрические и двухпараметрические. Различают два типа однопараметрических алгоритмов сжатия:
1. По степени полинома при фиксированном интервале представления;
2. По длине интервала представления при фиксированной степени полинома.
Суть работы алгоритмов второго типа состоит в следующем. Все время измерения разбивается на последовательные интервалы, длина которых определяется на основе анализа текущего сообщения при известной погрешности восстановления. Левая граница каждого интервала фиксируется на правой границе предыдущего, а правая граница отодвигается вперед по времени до тех пор, пока погрешность восстановления не превышает заданное значение.
В качестве показателя верности обычно используют показатель равномерного приближения, хотя возможно использование показателя среднего квадратического приближения. Действительно, если числовые значения показателей соответствуют одинаковому вероятностному распределению, то на величину коэффициента сжатия выбор показателя погрешности не оказывает влияния, но для расчета показателя равномерного приближения требуется значительно меньше вычислительных операций.
Поле допустимого отклонения выборки относительно аппроксимирующего полинома (по оси ординат) обычно называют апертурой
, а алгоритмы с контролем максимальной погрешности – апертурными
. Величина апертуры составляет удвоенное значение допустимой погрешности.
По способу построения восстанавливающего полинома алгоритмы сжатия разделяют на три группы:
1. Экстраполяционные;
2. Интерполяционные;
3. Смешанные (экстраполяция и интерполяция).
Экстраполяционные
алгоритмы работают следующим образом. По первым (N + 1) выборкам вычисляются коэффициенты полинома Лагранжа степени N. Для каждой последующей выборки вычисляется соответствующее значение при найденных коэффициентах, а разность между фактическим и вычисленным значениями сравнивается с допустимой погрешностью [6].
Рассмотрим работу экстраполяционного однопараметрического алгоритма сжатия первого порядка на передающей стороне. После накопления двух выборок l0
и l1
(по мере поступления, эти выборки передаются в канал связи и поступают на приемную сторону), вычисляется разделенная разность первого порядка по следующей формуле:
После поступления в момент времени t2
выборки l2
, вычисляется значение экстраполирующего полинома в точке t2
: .
После этого рассчитывается погрешность восстановления, т.е. разность (модуль разности) выборки и ее восстановленного значения . Если полученная погрешность оказывается больше допустимой погрешности eд
, выборка передается в канал связи, в противном случае – нет. В том случае, когда текущая выборка оказывается существенной и передается в канал связи, интервал экстраполяции обрывается и начинается новый. При этом в качестве первой точки, необходимой для расчета экстраполирующего полинома, выбирается расчетное значение выборки, предшествующей существенной. Второй точкой становится выборка, признанная существенной. Это помогает избавиться от высокочастотных шумов, возникающих при наличии в сигнале резких переходов с одного уровня на другой.
На приемной стороне по полученным двум выборкам l0
и l1
строится экстраполирующая прямая , которая продолжается до момента времени поступления очередной существенной выборки lk
. В этом случае строится новая экстраполирующая прямая . На рис. 8 показан пример работы алгоритма.
Работа интерполяционных
алгоритмов происходит в следующем порядке [6]. После накопления (N+2) выборок, по (N+1) выборке, обязательно включая крайние, вычисляются коэффициенты интерполирующего полинома степени N. Затем проверяется погрешность интерполяции этим полиномом оставшихся выборок (тех, которые не использовались
при построении полинома).
Если хотя бы для одной из выборок не выполняется требование о не превышении текущей погрешности над допустимой, в канал связи передается предыдущая
выборка lk
-1
, которая и считается существенной. Следующий интервал интерполяции начинается именно с нее.
На приемной стороне полученные ординаты l0
и lk
-1
соединяются прямой , а следующая прямая проводится через lk
-1
и очередную поступившую существенную ординату.
В том случае, когда сведения о порядке дифференцируемости измерительного сигнала известны априори, можно заранее определить точки интервала интерполяции, где ожидается максимальная погрешность. Например, модуль погрешности ступенчатой интерполяции достигает максимума в начале и конце интервала аппроксимации, а модуль линейной интерполяции достигает максимума приближенно в середине интервала.
Использование описанного метода может значительно сократить объем вычислений, но при этом надо учитывать существование отличной от нуля вероятности появления существенных погрешностей и вне
рассчитанного диапазона значений.
Для алгоритмов интерполяции существенной операцией является выбор точек, по которым строится аппроксимирующий полином. Математическое решение данной задачи было выполнено Чебышевым и связывало оптимальное расположение точек интерполяции с положением нулей полинома Чебышева.
Следует отметить, что основным преимуществом интерполяционных алгоритмов по сравнению с экстраполяционными является более высокий коэффициент сжатия при одинаковой степени аппроксимирующего полинома. Это в первую очередь связано с тем фактом, что соседние выборки, на базе которых строится экстраполирующая кривая, располагаются непосредственно рядом друг с другом. Таким образом, выборки являются сильно коррелированными и, как следствие, предоставляют меньше информации о измерительном сигнале, чем расположенные далеко друга выборки, что характерно для интерполяционных алгоритмов.
Приведенные выше рассуждения привели к третьему типу алгоритмов сжатия с однопараметрической адаптацией – к смешанным алгоритмам. Для таких алгоритмов характерно увеличение расстояния между выборками, по которым строится экстраполирующий
полином. Используя более сильно разнесенные выборки, такие алгоритмы позволяют увеличивать размер интервала экстраполяции, а, следовательно, и коэффициент сжатия при фиксированной степени полинома.
Примечание
: При выполнении лабораторной работы следует использовать блоки библиотек пакета Simulink «Simulink», «Simulink Extras» и «DSP blockset». Алгоритм ступенчатой экстраполяции можно реализовать с помощью блока «DSP Blockset ® Quantizers ® Quantizer». В этом случае пороговая погрешность задается параметром блока Quantizer Interval.
Задание
1) Реализовать блок сжатия данных с алгоритмом ступенчатой экстраполяции и проверить его работоспособность на синусоидальном сигнале при трех различных пороговых погрешностях;
2) Согласно варианту задания реализовать блок сжатия данных с алгоритмом второго порядка и проверить его работоспособность на синусоидальном сигнале;
3) Подать на вход реализованного блока сжатия синусоидальный сигнал, зашумленный заданным сигналом от источника случайного сигнала заданного типа. Снизить пороговую погрешность в два раза и еще раз посмотреть работу блока. Амплитуду синусоидального сигнала принять равной единице.
В отчет по лабораторной работе для каждого пункта задания следует поместить графики работы блока сжатия в каждом режиме.
Таблица 5
Варианты задания
Вариант |
Тип алгоритма |
Тип источника шума |
ОСШ |
Пороговая погрешность |
1 |
Экстраполяция |
Равномерный |
8,0 |
0,1 |
2 |
Интерполяция |
Гауссовский |
5,0 |
0,05 |
3 |
Экстраполяция |
Гауссовский |
7,0 |
0,15 |
4 |
Интерполяция |
Равномерный |
5,0 |
0,15 |
5 |
Экстраполяция |
Равномерный |
9,0 |
0,1 |
6 |
Интерполяция |
Гауссовский |
6,0 |
0,15 |
7 |
Экстраполяция |
Гауссовский |
9,0 |
0,05 |
8 |
Интерполяция |
Равномерный |
5,0 |
0,1 |
9 |
Интерполяция |
Гауссовский |
5,0 |
0,05 |
10 |
Экстраполяция |
Равномерный |
8,0 |
0,05 |
11 |
Экстраполяция |
Гауссовский |
10,0 |
0,1 |
12 |
Интерполяция |
Гауссовский |
7,0 |
0,1 |
13 |
Интерполяция |
Равномерный |
6,0 |
0,15 |
14 |
Экстраполяция |
Равномерный |
8,0 |
0,05 |
15 |
Интерполяция |
Равномерный |
5,0 |
0,1 |
Контрольные вопросы
1. Приведите базовую классификацию методов сжатия информации.
2. В каких областях применяются необратимые методы сокращения избыточности информации?
3. Как вычисляется коэффициент сжатия?
4. Почему экстраполяционные алгоритмы сжатия имеют меньшую эффективность, чем интерполяционные?
5. Какая точка считается началом очередного интервала интерполяции?
6. Какой способ можно использовать для повышения коэффициента сжатия у экстраполяционных алгоритмов, если степень полинома повысить нельзя?
7. Почему в экстраполяционных алгоритмах за начало нового интервала аппроксимации принимают вычисленное значение на предыдущем шаге, а не истинное значение входного сигнала в той же точке?
Библиографический список
1. Хоровиц П. Искусство схемотехники : в 2-х т. Т. 2. / П. Хоровиц, У. Хилл. – М., 1984. – 590 с.
2. Дьяконов В. П. Справочник по алгоритмам и программам на языке Бейсик для персональных ЭВМ : Справочник / В. П. Дьяконов – М., 1987. – 240 с.
3. Кармалита В. А. Цифровая обработка случайных колебаний / В. А. Кармалита. – М., 1986. – 142 c.
4. Марпл С. П. (мл.) Цифровой спектральный анализ и его приложения / С. П. Марпл (мл.) – М., 1990. – 584 с.
5. Дядюнов А.Н. Адаптивные системы сбора и передачи аналоговой информации. Основы теории / А. Н. Дядюнов, Ю. А. Онищенко, А. И. Сенин – М., 1988. – 288 c.
6. Новоселов О.Н. Основы теории и расчета информационно-измерительных систем / О. Н. Новоселов, А. Ф. Фомин – М., 1980. – 280 с.
7. Сергиенко А.Б. Цифровая обработка сигналов / А. Б. Сергиенко – СПб., 2002. – 608 с.
8. Гультяев А. Визуальное моделирование в среде Mathlab: Учебный курс. / А. Гультяев – СПб., 2000. – 432 с.
9. Дьяконов В. П. Simulink 4. Специальный справочник / В. П. Дьяконов СПб., 2002. – 528 с.
10. Акимов П. С. Сигналы и их обработка в информационных системах : учеб пособие для вузов / П. С Акимов, А. И. Сенин, В. И. Соленов. – М., 1994. – 256 с.
Приложение
Основные блоки библиотеки
Simulink
системы
Mathlab
6.5
1.
Блоки визуализации
Разделы Simulink
и DSP
Blockset
,
подраздел Sinks
:
Display
– виртуальный дисплей. Служит для представления цифровой информации, причем может отображать значения элементов вектора. В последнем случае у дисплея появляется соответствующее количество окон отображения.
Time
Scope
(
Scope
)
– виртуальный осциллограф. Позволяет представить результаты моделирования в виде временных диаграмм. В окне параметров блока можно задавать число осей (поле Number of axis), пределы временного интервала (поле Time range), разрешать/запрещать вывод меток по осям (поле Tick labels) и устанавливать временные соотношения (поле Sampling) в десятичных долях времени или в тактах эталонного времени.
Spectrum
Scope
(только для DSP Blockset) – виртуальный спектроскоп. Позволяет вывести в графическом виде спектр сигнала. Свойства устройства позволяют выводить спектр в абсолютных единицах (Magnitude) и в децибеллах. При выполнении лабораторных работ следует включить режим буферизации и задать размер буфера равным размеру выборки для БПФ (FFT).
2.
Блоки источников сигналов
Раздел Simulink,
подраздел Sourse
:
Random
Number
– источник случайного сигнала с нормальным распределением. Уровень сигнала ограничивается сверху задаваемым значением Maximum, а снизу – значением Minimum.
Uniform
Random
Number
– источник случайного сигнала с равномерным распределением. Основные параметры генератора – среднее значение Mean и среднеквадратическое отклонение Variance.
Pulse
Generator
– источник дискретных импульсов. Создает последовательность прямоугольных импульсов с амплитудой Amplitude, периодом следования Period, шириной импульса Pulse wight и фазой Phase delay. Последние три параметра задаются в единицах эталонного времени Sample time.
Sine Wave
– источник синусоидального воздействия. Характеризуется амплитудой Amplitude, частотой Frequence, фазой Phase и эталонным временем Sample Time. Последний параметр используется для согласования работы источника с другими элементами схемы.
Раздел DSP Blockset,
подраздел Sourse
:
Random Source
– универсальный источник случайного сигнала. Поле Source type в свойствах источника позволяет установить тип случайного сигнала – равномерный или нормальный (гауссовский). В зависимости от выбранного типа сигнала меняются и остальные параметры (см. блоки Random Number и Uniform Random Number). К специфическим параметрам блока можно отнести вид выборки (Sample type), позволяющий реализовать дискретный или непрерывный генератор.
Sine
Wave
– блок, аналогичный блоку Sine wave раздела Simulink. Список параметров существенно расширен. Режим дискретизации сигнала Sample mode позволяет реализовать либо дискретную, либо непрерывную синусоиду, параметр Output Complexity задает тип выходного сигнала – действительный или комплексный и т.д.
DSP
Constant
– источник постоянного воздействия. Определяет константу, которую необходимо ввести в реализуемую модель. В том случае если требуется задавать значения вектора, то они записываются в квадратных скобках, через запятую. Например, запись [0.1, 0.2, 0.3] задает вектор с элементами 0.1, 0.2 и 0.3.
3.
Блоки математических операций
Раздел Simulink
подраздел Math Operations
:
Sum
– блок сложения/вычитания. Основными параметрами является Icon shape, задающий вид представления блока (круглый или прямоугольный) и List of signs, в котором количество знаков «+» и «–» определяет число входов, а тип каждого входа определяется смыслом приписываемого ему знака (если «+», то сигнал суммируется, если «–» – вычитается).
Product
– блок умножения. Предназначен для умножения и деления ряда входных сигналов. Операции задаются таким же образом, как и для блока Sum. Для определения действия используются знаки «/» и «*».
Math
function
– блок вычисления элементарных математических функций. Позволяет вычислить большинство часто встречающихся функций – квадратный корень (sqrt), возведение в степень (pow), взятие логарифма (натурального – log, десятичного – log10) и т.д.
Trigonometric
function
– блок вычисления элементарных тригонометрических функций. Позволяет вычислить такие функции как синус (sin), тангенс (tan), гиперболический арккосинус (acosh) и т.п.
4.
Блоки вычисления статистических параметров сигналов
Раздел DSP Blockset
подраздел Statistics
:
Mean
– вычисление среднего значения. Для корректного выполнения своей функции на вход блока необходимо поставить буфер или установить параметр Running mean.
Variance
– вычисление выборочной дисперсии. Указания по работе с блоком совпадают с требованиями к блоку Mean.
RMS
– вычисление среднеквадратического отклонения. Указания по работе с блоком совпадают с требованиями к блоку Mean.
5.
Разное
Раздел Simulink
:
MATHLAB Fcn
(подраздел User-Defined Function
) – пользовательская функция. Позволяет вычислить сложную математическую функцию, задаваемую в поле параметра. Входной сигнал обозначается символом «u».
Switch
(подраздел Signal
Routing
) – двухвходовый логический коммутатор. На выход подается сигнал с первого входа в том случае, если сигнал на входе управления больше или равен заданного параметра. В противном случае на выход коммутируется сигнал со второго входа.
Multiport Switch
(подраздел Signal Routing
) – многовходовый коммутатор. Позволяет моделировать коммутационные устройства. Основным параметром является число входов, в дополнительных параметрах особый интерес представляет поле Use zero-based indexing, разрешающее нумеровать каналы начиная с нуля.
Data
Type
Conversion
(подраздел Signal
Attributes
) – позволяет преобразовать тип входной величины в заданный.
Memory
(подраздел Discrete
) – обеспечивает задержку входного сигнала на фиксированную величину времени. Установленный параметр Inherit Sample Time указывает на то, что шаг изменения времени берется от предыдущего времени. Этот элемент необходим при моделировании систем с обратными связями.
Logical
Operator
(подраздел Math
Operations
) – реализует логические операции И, ИЛИ , И-НЕ и др.
Раздел DSP Blockset
:
Quantizer
(подраздел Quantizers
) – блок квантования. Служит для квантования сигналов с одинаковым шагом по уровню. Единственный параметр – шаг по уровню (по умолчанию – 0.5).
Buffer
(подраздел Signal Management
) – блок буферизации входного сигнала. Используется перед блоками, выполняющими действия над массивами данных. Основные параметры – размер буфера (Buffer size) и перекрытие буфера (Buffer overlap), задающее число элементов из предыдущего набора данных, которые повторяются в текущем наборе.
Counter
(подраздел Signal Management
) – счетчик импульсов. Позволяет подсчитывать поступающие на вход импульсы. Установкой параметров можно менять условия переключения в следующее состояние, разрядность счетчика и тип выхода (счетный, переполнения, совместно).
Integer Delay
(подраздел Signal
Operations
) – задержка сигнала. Обеспечивает задержку сигнала на заданное число тактов времени.
Раздел Simulink Extras
:
D latch
(подраздел Flip-Flops
) – триггер-защелка D-типа. Необходим для построения сдвиговых регистров, счетчиков и др. При реализации сложных устройств с обратными связями (например, с инверсного выхода на вход D) в цепь обратной связи необходимо поместить элемент задержки Memory.
Spectrum Analyzer
(подраздел Additional Sinks
) – спектроанализатор. Имеет два входа для подключения на вход и выход анализируемой системы. Параметры блока позволяют управлять размером входного буфера и числом точек, использующихся для вычисления БПФ.
ОГЛАВЛЕНИЕ
Стр.
Лабораторная работа № 1
МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ СИГНАЛОВ …………………… 3
Лабораторная работа № 2
ДВОИЧНОЕ КОДИРОВАНИЕ ДАННЫХ
И ТАКТОВАЯ СИНХРОНИЗАЦИЯ ………………………………….. 10
Лабораторная работа № 3
ОПРОС ИСТОЧНИКОВ ИНФОРМАЦИИ …………………………… 15
Лабораторная работа № 4
АЛГОРИТМЫ СЖАТИЯ АНАЛОГОВЫХ ДАННЫХ ……………… 20
Библиографический список …………………………………………… 27
Приложение …………………………………………………………….. 28
ТЕОРИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ И СИСТЕМ
Методические указания по выполнению лабораторных работ № 1–4
для студентов специальности 071900
«Информационные системы и технологии»
Алексей Викторович Левенец
Главный редактор Л. А. Суевалова
Редактор Н. Г. Петряева
Компьютерная верстка А. В. Левенца
Подписано в печать . Формат 60x84 1/16.
Бумага писчая. Гарнитура «Таймс». Печать офсетная.
Усл. печ. л. 1,86. Тираж 150 экз. Заказ
Издательство Тихоокеанского государственного университета.
680035, Хабаровск, ул. Тихоокеанская, 136.
Отдел оперативной полиграфии издательства
Тихоокеанского государственного университета.
680035, Хабаровск, ул. Тихоокеанская, 136.