СтудСфера.Ру - помогаем студентам в учёбе

У нас можно недорого заказать курсовую, контрольную, реферат или диплом

Информация, ее виды и свойства. - Контрольная работа №17337

«Информация, ее виды и свойства.» - Контрольная работа

  • 25 страниц(ы)

Содержание

Введение

Выдержка из текста работы

Заключение

Список литературы

фото автора

Автор: vlad1245

Содержание

ЗАДАНИЕ 1 3

ВВЕДЕНИЕ 3

1. РАЗЛИЧНЫЕ УРОВНИ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ 6

2. НЕПРЕРЫВНАЯ И ДИСКРЕТНАЯ ИНФОРМАЦИЯ 8

3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ 11

Вероятностный подход 11

Объемный подход 15

4. ИНФОРМАЦИЯ: БОЛЕЕ ШИРОКИЙ ВЗГЛЯД 16

5. ИНФОРМАЦИЯ И ФИЗИЧЕСКИЙ МИР 19

ЗАКЛЮЧЕНИЕ 22

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 23

ЗАДАНИЕ 2 24

ЗАДАНИЕ 3 25


Введение

Современная информатика очень велика по объему и очень динамична. Если изучаемые в вузах курсы математики, лингвистики, химии и большинства других наук практически не изменятся на протяжении многих лет будущей профессиональной деятельности сегодняшнего студента, то в информатике это полностью оформившееся ядро сравнительно невелико. Как же тогда быть с ее изучением?

Прежде всего, следует определиться, что такое информатика. В понимании некоторых людей это есть совокупность приемов и методов работы с компьютерами. На самом деле это не так: компьютеры являются лишь техническим средством, с помощью которого информатика реализует свой прикладной пользовательский аспект- правда, средством столь сложным и интересным, что оно способно поглотить массу внимания не только специалистов в области компьютерных технологий, но и непрофессионалов.

Информатика - комплекс научно-практических дисциплин, изучающих все аспекты получения, хранения, преобразования, передачи и использования информации. Существует много определений понятия Информатика. Однако, из какого бы определения ни исходить, все согласны с тем, что у современной информатики есть два взаимодополняющих аспекта - научный и технологический. Первый является более устоявшимся, второй - весьма мобильным, хотя и в технологической части информатики есть вполне сформировавшееся ядро, которое мало подвержено изменениям.

Приведем примеры, опираясь на имеющийся опыт. Так, существует большое количество алгоритмических языков программирования, и допустим, что человеку, умеющему работать с Бейсиком или Паскалем, приходится браться за Си. Новая система обозначений, дополнительные возможности - на некоторое время это может полностью поглотить внимание, но постепенно приходит понимание: главное - навыки к алгоритмизации и структурированию данных, и если они есть, то кодирование алгоритмов на другом языке - дело не самое сложное. Или: исчерпаны возможности привычного текстового редактора (или он просто вышел из моды - тоже бывает), и нужно переходить на новый. Если человек понимает принципы работы программ такого рода, имеет устойчивые навыки работы с одной из них, то освоить другую, даже с большими возможностями, обычно несложно. Подтверждается известная истина: образование - это то, что остается, когда детали знаний забываются.

Итак, главное при изучении информатики - освоить фундаментальные понятия каждой из ее областей, ориентироваться в их взаимосвязи, приобрести навыки практической работы с важнейшими техническими и программными средствами.

Практически в каждой науке есть фундамент, без которого ее прикладные аспекты лишены основ. Для математики такой фундамент составляют теория множеств, теория чисел, математическая логика и некоторые другие разделы; для физики - это основные законы классической и квантовой механики, статистической физики, релятивистской теории; для химии - периодический закон, его теоретические основы и т.д. Можно, конечно, научиться считать и пользоваться калькулятором, даже не подозревая о существовании указанных выше разделов математики, делать химические анализы без понимания существа химических законов, но при этом не следует думать, что знаешь математику или химию. Примерно то же с информатикой: можно изучить несколько программ и даже освоить некоторое ремесло, но это отнюдь не вся информатика, точнее, даже не самая главная и интересная ее часть.

Теоретические основы информатики - пока не вполне сложившийся, устоявшийся раздел науки. Он возникает на наших глазах, что делает его особенно интересным - нечасто мы наблюдаем и даже можем участвовать в рождении новой науки! Как и теоретические разделы других наук, теоретическая информатика формируется в значительной мере под влиянием потребностей обучения информатике.

Теоретическая информатика - наука математизированная. Она складывается из ряда разделов математики, которые прежде казались мало связанными друг с другом: теории автоматов и теории алгоритмов, математической логики, теории формальных языков и грамматик, реляционной алгебры, теории информации и др. Теоретическая информатика старается методами точного анализа ответить на основные вопросы, возникающие при работе с информацией, например вопрос о количестве информации, сосредоточенной в той или иной информационной системе, наиболее рациональной организации таких систем для хранения и поиска информации, а также о существовании и свойствах алгоритмов преобразования информации. Конструкторы устройств хранения данных проявляют чудеса изобретательности, увеличивая объем и плотность хранения данных на дисках, но в основе этой деятельности лежат теория информации и теория кодирования. Для решения прикладных задач существуют замечательные программы, но для того, чтобы грамотно поставить прикладную задачу, привести ее к виду, который подвластен компьютеру, надо знать основы информационного и математического моделирования и т.д. Только освоив эти разделы информатики, можно считать себя специалистом в этой науке. Другое дело - с какой глубиной осваивать; многие разделы теоретической информатики достаточно сложны и требуют основательной математической подготовки.


Выдержка из текста работы

1. РАЗЛИЧНЫЕ УРОВНИ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ

Понятие информация является одним из фундаментальных в современной науке вообще и базовым для изучаемой нами информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. Аналогичными «неопределяемыми» понятиями, например, в математике является «точка» или «прямая». Так, можно сделать некоторые утверждения, связанные с этими математическими понятиями, но сами они не могут быть определены с помощью более элементарных понятий.

В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации».

Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи» (рис. 1). Так, при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.

2. НЕПРЕРЫВНАЯ И ДИСКРЕТНАЯ ИНФОРМАЦИЯ

Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция - носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал - это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.

В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала - непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения - процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха.

3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2,., N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H=f(N) (1)

а сама функция/является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1,2,., 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через Н2.

За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = H1 - H2 (2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (H2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.

Следующим важным моментом является определение вида функции f в формуле (1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1, 2, ., N) будет равно N в степени М:

X = NM (3)

Так, в случае двух бросаний кости с шестью гранями имеем: X=62=36. Фактически каждый исход X есть некоторая пара (X1, X2), где Х1 и Х2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»):

f(6M) = М•f(6).

Данную формулу можно распространить и на случай любого N:

f(NM) = M•f(N). (4)

Прологарифмируем левую и правую части формулы (3): lnХ = M•lnN, M = lnX/lnN.

Подставляем полученное для М значение в формулу (4):

f(X) = lnXlnM•f(N).

Обозначив через К положительную константу, получим: f(X) = К•lnХ, или, с учетом (1), Н = K•lnN. Обычно принимают К= 1/ln 2. Таким образом

H = log2 N. (5)

Это - формула Хартли.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)/N. При этом вероятность i-го исхода Рi. равняется, очевидно, 1/N.

Таким образом,

H = . (6)

Та же формула (6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Рi могут быть различны). Формула (6) называется формулой Шеннона.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле (5)

Н = log2 34 = 5 бит.

Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.

3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2,., N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H=f(N) (1)

а сама функция/является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1,2,., 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через Н2.

За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = H1 - H2 (2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (H2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.

Следующим важным моментом является определение вида функции f в формуле (1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1, 2, ., N) будет равно N в степени М:

X = NM (3)

Так, в случае двух бросаний кости с шестью гранями имеем: X=62=36. Фактически каждый исход X есть некоторая пара (X1, X2), где Х1 и Х2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»):

f(6M) = М•f(6).

Данную формулу можно распространить и на случай любого N:

f(NM) = M•f(N). (4)

Прологарифмируем левую и правую части формулы (3): lnХ = M•lnN, M = lnX/lnN.

Подставляем полученное для М значение в формулу (4):

f(X) = lnXlnM•f(N).

Обозначив через К положительную константу, получим: f(X) = К•lnХ, или, с учетом (1), Н = K•lnN. Обычно принимают К= 1/ln 2. Таким образом

H = log2 N. (5)

Это - формула Хартли.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)/N. При этом вероятность i-го исхода Рi. равняется, очевидно, 1/N.

Таким образом,

H = . (6)

Та же формула (6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Рi могут быть различны). Формула (6) называется формулой Шеннона.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле (5)

Н = log2 34 = 5 бит.

Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.

4. ИНФОРМАЦИЯ: БОЛЕЕ ШИРОКИЙ ВЗГЛЯД

Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смысле) происхождения на первый план могут выступить такие ее свойства как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается с точки зрения как формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы не исключают количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.

5. ИНФОРМАЦИЯ И ФИЗИЧЕСКИЙ МИР

Известно большое количество работ, посвященных физической трактовке информации. Эти работы в значительной мере построены на основе аналогии формулы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли.

Заметим, что при всех выводах формулы Больцмана явно или неявно предполагается, что макроскопическое состояние системы, к которому относится функция энтропии, реализуется на микроскопическом уровне как сочетание механических состояний очень большого числа частиц, образующих систему (молекул). Задачи же кодирования и передачи информации, для решения которых Хартли и Шенноном была развита вероятностная мера информации, имели в виду очень узкое техническое понимание информации, почти не имеющее отношения к полному объему этого понятия. Таким образом, большинство рассуждений, использующих термодинамические свойства энтропии применительно к информации нашей реальности, носят спекулятивный характер. В частности, являются необоснованными использование понятия «энтропия» для систем с конечным и небольшим числом состояний, а также попытки расширительного методологического толкования результатов теории вне довольно примитивных механических моделей, для которых они были получены. Энтропия и негэнтропия - интегральные характеристики протекания стохастических процессов - лишь параллельны информации и превращаются в нее в частном случае.


Заключение

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не завершены) усилия ученых, представляющих самые разные области знания, построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Движение информации есть сущность процессов управления, которые суть проявление имманентной активности материи, ее способности к самодвижению. С момента возникновения кибернетики управление рассматривается применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых - искусственных (технических) и естественных (природных) - системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной науки- синергетики.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это над дисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.


Список литературы

1. Могилев А.В., Пак Н.И., Ханнер Е.К. Информатика: Учеб. пособие для студ. пед. вузов. – 2-е изд., стер. – М.: Издательский центр «Академия», 2003. – 816 с.

2. Леоньтнв В.П. Новейшая энциклопедия персонального компьютера 2003. – 5-е изд., перераб. и доп. – М.: ОМЛА-ПРЕСС, 2003. – 957 с.: ил.


Нужна похожая работа?
Закажите авторскую работу по вашему заданию.
  • Цены ниже рыночных
  • Удобный личный кабинет
  • Необходимый уровень антиплагиата
  • Прямое общение с исполнителем вашей работы
  • Бесплатные доработки и консультации
  • Минимальные сроки выполнения

Мы уже помогли 24535 студентам

Средний балл наших работ

  • 4.89 из 5
Узнайте стоимость
написания вашей работы
Похожие материалы
  • Контрольная работа:

    Основы теории коммуникации - Понятие информации. Информация как основной элемент коммуникационной системы

    20 страниц(ы) 

    Введение….
    1. Информация как технологическая основа менеджмента.
    1.1. Понятие информации, ее виды и свойства.
    1.2. Управленческая информация.
    1.3. Коммуникативные свойства информации.
    2. Интегрирующая роль коммуникации.
    2.1. Понятие коммуникации. Язык.
    2.2. Два аспекта коммуникации.
    2.3. Виды коммуникаций.
    2.4. Элементы коммуникации.
    2.5 Современные средства коммуникации в менеджменте….
    Заключение….
    Литература….
  • Контрольная работа:

    Понятие информации. Информация как основной элемент коммуникационной системы

    20 страниц(ы) 

    Введение….
    1. Информация как технологическая основа менеджмента.
    1.1. Понятие информации, ее виды и свойства.
    1.2. Управленческая информация.
    1.3. Коммуникативные свойства информации.
    2. Интегрирующая роль коммуникации.
    2.1. Понятие коммуникации. Язык.
    2.2. Два аспекта коммуникации.
    2.3. Виды коммуникаций.
    2.4. Элементы коммуникации.
    2.5 Современные средства коммуникации в менеджменте….
    Заключение….
    Литература….
  • Дипломная работа:

    Влияние информации на здоровье и безопасность подросткового поколения

    57 страниц(ы) 

    ВВЕДЕНИЕ
    ГЛАВА I. ТЕОРЕТИЧЕСКИЕ ПОДХОДЫ К ИССЛЕДОВАНИЮ ПРОБЛЕМЫ ВЛИЯНИЯ ИНФОРМАЦИИ НА ЗДОРОВЬЕ И БЕЗОПАСНОСТЬ ПОДРОСТКОВОГО ПОКОЛЕНИЯ
    1.1. Определение понятий в исследовании проблемы
    влияния информации на здоровье и безопасность подростков
    1.2. Законодательство Российской Федерации по защите несовершеннолетних от негативной информации
    1.3. Особенности влияния информации на здоровье и
    безопасность подростков в аспекте психологической
    безопасности
    1.4. Интернет – как фактор развития аддиктивного поведения подростков
    ГЛАВА II. ОЦЕНКА ВЛИЯНИЯ ИНФОРМАЦИИ, В ЧАСТНОСТИ ИНТЕРНЕТА, НА ЗДОРОВЬЕ И БЕЗОПАСНОСТЬ ПОДРОСТКОВ
    (ЭМПИРИЧЕСКОЕ ИССЛЕДОВАНИЕ)
    2.1. Организация и описание методов исследования
    2.2. Краткая характеристика использованных методов
    исследования
    2.2.1. Тест на Интернет-аддикцию (Т.А. Никитина, А.Ю. Егоров)
    2.2.2. Опросник агрессивности Басса-Дарки
    2.2.3. Методика диагностики агрессивности А. Ассингера
    2.2.4. Методика «Многофакторный личностный опросник
    (Р.Кэттелл)
    2.3. Анализ результатов исследования
    ЗАКЛЮЧЕНИЕ
    Рекомендации учителям, родителям и учащимся
    СПИСОК ЛИТЕРАТУРЫ
  • Курсовая работа:

    Организация рекламы в розничных торговых предприятиях и ее эффективность

    35 страниц(ы) 

    Введение 3
    1. Понятие, виды и функции рекламы 6
    2. Методы оценки психологической эффективности рекламы 14
    3. Деятельность, реклама и маркетинг ООО «ТФ Обувь»
    19
    4. Совершенствование рекламной политики в ООО «ТФ Обувь»
    27
    Заключение 31
    Список литературы 34

  • Дипломная работа:

    Ограничение свободы распространения информации в целях противодействия экстремистской деятельности: конституционно-правовой аспект

    62 страниц(ы) 

    ВВЕДЕНИЕ 3
    ГЛАВА 1. ОГРАНИЧЕНИЕ СВОБОДЫ РАСПРОСТРАНЕНИЯ ИНФОРМАЦИИ: ДОКТРИАЛЬНЫЕ ПОДХОДЫ И НОРМАТИВНО-ПРАВОВЫЕ РЕШЕНИЯ
    1.1. Правовая определенность понятия «экстремистская деятельность». 7
    1.2. Конституционные ограничения свободы распространения информации 17
    ГЛАВА 2. МЕРЫ ОГРАНИЧЕНИЯ СВОБОДЫ РАСПРОСТРАНЕНИЯ ИНФОРМАЦИИ В ЦЕЛЯХ ПРОТИВОДЕЙСТВИЯ ЭКСТРЕМИСТСКОЙ ДЕЯТЕЛЬНОСТИ.
    2.1. Признание информационных материалов экстремистскими 29
    2.2. Ограничение деятельности средств массовой информации 41
    2.3. Ограничение распространения информации в сети интернет 48
    ЗАКЛЮЧЕНИЕ 54
    СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ И ЛИТЕРАТУРЫ 58
  • Реферат:

    Информация, ее виды и свойства

    25 страниц(ы) 

    ЗАДАНИЕ 1 3
    ВВЕДЕНИЕ 3
    1. РАЗЛИЧНЫЕ УРОВНИ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ 6
    2. НЕПРЕРЫВНАЯ И ДИСКРЕТНАЯ ИНФОРМАЦИЯ 8
    3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ 11
    Вероятностный подход 11
    Объемный подход 15
    4. ИНФОРМАЦИЯ: БОЛЕЕ ШИРОКИЙ ВЗГЛЯД 16
    5. ИНФОРМАЦИЯ И ФИЗИЧЕСКИЙ МИР 19
    ЗАКЛЮЧЕНИЕ 22
    СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 23
    ЗАДАНИЕ 2 24
    ЗАДАНИЕ 3 25

Не нашли, что искали?

Воспользуйтесь поиском по базе из более чем 40000 работ

Наши услуги
Дипломная на заказ

Дипломная работа

от 8000 руб.

срок: от 6 дней

Курсовая на заказ

Курсовая работа

от 1500 руб.

срок: от 3 дней

Отчет по практике на заказ

Отчет по практике

от 1500 руб.

срок: от 2 дней

Контрольная работа на заказ

Контрольная работа

от 100 руб.

срок: от 1 дня

Реферат на заказ

Реферат

от 700 руб.

срок: от 1 дня

Другие работы автора
  • Реферат:

    История культуры России.

    26 страниц(ы) 


    Введение 3
    1 Культура Киевской Руси 5
    1.1 Византийское наследие 5
    1.2 Письменность и литература 6
    1.3 Роль Церкви 9
    1.4 Культовая архитектура 10
    1.5 Монументальная живопись 12
    2 Культура Московской Руси 13
    2.1 Местные художественные школы 13
    2.2 Развитие литературы и науки 19
    Заключение 25
    Список использованной литературы 26
  • Курсовая работа:

    Особенности экономического кризиса в России в переходный период.

    41 страниц(ы) 

    ВВЕДЕНИЕ 3
    ГЛАВА 1 ТЕОРЕТИЧЕСКИЕ АСПЕКТЫ ПОНЯТИЯ ЭКОНОМИЧЕСКИЙ КРИЗИС 5
    1.1 ТЕОРИЯ ЭКОНОМИЧЕСКОГО ЦИКЛА 5
    1.1.1 Экономический цикл 5
    1.1.2 Фазы цикла 5
    1.1.3 Причины цикличности 7
    1.1.4 Нециклические колебания 9
    1.1.5 Антициклическое регулирование 9
    1.1.6 Специфика цикличности развития в конце XX в. 11
    1.2 ТЕОРЕТИЧЕСКИЕ ОСНОВЫ КРИЗИСА 12
    1.3 КЛАССИФИКАЦИЯ КРИЗИСОВ 12
    1.4 ФАКТОРЫ, ВЛИЯЮЩИЕ НА ТЕЧЕНИЕ КРИЗИСОВ 15
    1.5 ВОЗДЕЙСТВИЕ КРИЗИСОВ НА ЭКОНОМИКУ 16
    ГЛАВА 2 ЭКОНОМИЧЕСКИЙ КРИЗИС В РОССИИ 18
    2.1 ТРАНСФОРМАЦИОННЫЙ СПАД 18
    2.2 ЭКОНОМИЧЕСКИЕ ПРЕОБРАЗОВАНИЯ В РОССИИ 19
    2.3 ТЕЧЕНИЕ КРИЗИСА 24
    2.4 ПРИЧИНЫ КРИЗИСА В РОССИИ 25
    2.5 ОСОБЕННОСТИ ЭКОНОМИЧЕСКОГО КРИЗИСА В РОССИИ 27
    ГЛАВА 3 ВЛИЯНИЕ КРИЗИСА И ВЫХОД ИЗ СИТУАЦИИ 32
    3.1 ДОСТИЖЕНИЯ И ПРОБЛЕМЫ ЭКОНОМИЧЕСКИХ РЕФОРМ 32
    3.1.1 Достижения 32
    3.1.2 Проблемы 32
    3.2 ПОЛОЖИТЕЛЬНОЕ ВЛИЯНИЕ КРИЗИСА НА ЭКОНОМИКУ РОССИИ 35
    3.3 ПУТИ ВЫХОДА ИЗ КРИЗИСА 36
    ЗАКЛЮЧЕНИЕ 39
    СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 40
  • Курсовая работа:

    Социальное обслуживание в условиях рыночных отношений

    54 страниц(ы) 

    Реферат 3
    Введение 4
    1. Сущность социального обслуживания как системы в условиях рыночной экономики. 8
    1.1. Понятие социального обслуживания 8
    1.2. Принципы социального обслуживания 10
    1.3. Виды социального обслуживания 11
    1.4 Оплата социальных услуг 14
    2. Организация социального обслуживания и специфика технологий социального обслуживания в условиях рыночных отношений 17
    2.1.Система социального обслуживания 17
    2.2. Финансовое и имущественное обеспечение систем социального обслуживания 19
    2.3.Специфика технологий социального обслуживания 21
    3.Проблемы и перспективы социального обслуживания в условиях рыночных отношений 30
    3.1.Состояние, проблемы в сфере социального обслуживания и некоторые пути их решения 30
    3.2. Стандартизация системы социального обслуживания как путь повышения эффективности 37
    Заключение 46
    Список использованных источников 49
    Словарь терминов 54
  • Реферат:

    Что такое исполнитель? Какова структура и свойства окна текстового редактора? Поколение микропроцессоров и их основные характеристики

    23 страниц(ы) 

    1 Что такое исполнитель? Приведите примеры 3
    2 Какова структура и свойства окна текстового редактора? 7
    3 Поколение микропроцессоров и их основные характеристики 20
  • Контрольная работа:

    Объект и предмет социологии. Какие функции выполняет культура.

    24 страниц(ы) 

    1 Объект и предмет социологии 3
    1.1 Объект социологии 3
    1.2 Предмет социологии 3
    1.3 Функции социологии 4
    1.3.1 Познавательные функции 4
    1.3.2 Прогностические функции 5
    1.3.3 Управленческие функции 7
    2 Функции культуры 10
    2.1 Понятие культуры 10
    2.2 Элементы культуры 11
    2.2.1 Язык 11
    2.2.2 Убеждения, верования, знания 12
    2.2.3 Ценности 13
    2.2.4 Установки 14
    2.2.5 Социальные нормы 16
    2.2.6 Традиции 17
    2.3 Функции культуры 19
    Список использованной литературы 24
  • Реферат:

    Сознание как высшая форма отражения действительности.

    17 страниц(ы) 

    Введение 3
    1. Проблема сознания в истории философской мысли 4
    2. Сознание как форма головного мозга 6
    3. Сознание и самосознание 9
    4. Сознание и компьютер 12
    Заключение 15
    Глоссарий 16
    Список использованных источников 17
  • Реферат:

    Современная неклассическая философия

    23 страниц(ы) 

    Введение 3
    1 Особенности неклассической философии XX века 4
    2 Современная европейская философия о человеке 6
    2.2 Экзистенциализм 6
    2.2 Философия жизни 8
    2.3 Психоанализ 13
    3 Проблема познания в современной неклассической философии 16
    Заключение 22
    Библиографический список 23
  • Реферат:

    Лица_участвующие в деле их характеристика

    27 страниц(ы) 

    13. Лица, участвующие в деле. Их характеристика 3
    33. Производство в апелляционной инстанции 15
    43. Проект определения арбитражного суда о прекращении производства по делу в связи с отказом истца от иска 25
    Список использованных источников 27
  • Реферат:

    Рембрандт

    14 страниц(ы) 

    Введение 3
    1 Высказывания критиков о творчестве Рембрандта 4
    2 Психологический анализ картины «Явление Христа Марии Магдалине» 7
    3 Иллюстрации картин Рембрандта 9
    Заключение 13
    Список использованной литературы 14
  • Реферат:

    Политические партии современной России_м200АА

    22 страниц(ы) 

    Введение 3
    1 Политические партии: понятие и классификация 4
    1.1 Понятие политической партии 4
    1.2 Классификация политических партий 6
    1.3 Функции политических партий 7
    2 Характеристика политических партий в современной России 9
    2.1 «Единая Россия» 9
    2.2 «ЛДПР» 10
    2.3» СПС» и «Яблоко» 12
    2.4 «КПРФ» 13
    2.5 «Родина» 17
    Заключение 20
    Список использованной литературы 22