СтудСфера.Ру - помогаем студентам в учёбе

У нас можно недорого заказать курсовую, контрольную, реферат или диплом

Информация, ее виды и свойства. - Контрольная работа №17337

«Информация, ее виды и свойства.» - Контрольная работа

  • 25 страниц(ы)

Содержание

Введение

Выдержка из текста работы

Заключение

Список литературы

фото автора

Автор: vlad1245

Содержание

ЗАДАНИЕ 1 3

ВВЕДЕНИЕ 3

1. РАЗЛИЧНЫЕ УРОВНИ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ 6

2. НЕПРЕРЫВНАЯ И ДИСКРЕТНАЯ ИНФОРМАЦИЯ 8

3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ 11

Вероятностный подход 11

Объемный подход 15

4. ИНФОРМАЦИЯ: БОЛЕЕ ШИРОКИЙ ВЗГЛЯД 16

5. ИНФОРМАЦИЯ И ФИЗИЧЕСКИЙ МИР 19

ЗАКЛЮЧЕНИЕ 22

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 23

ЗАДАНИЕ 2 24

ЗАДАНИЕ 3 25


Введение

Современная информатика очень велика по объему и очень динамична. Если изучаемые в вузах курсы математики, лингвистики, химии и большинства других наук практически не изменятся на протяжении многих лет будущей профессиональной деятельности сегодняшнего студента, то в информатике это полностью оформившееся ядро сравнительно невелико. Как же тогда быть с ее изучением?

Прежде всего, следует определиться, что такое информатика. В понимании некоторых людей это есть совокупность приемов и методов работы с компьютерами. На самом деле это не так: компьютеры являются лишь техническим средством, с помощью которого информатика реализует свой прикладной пользовательский аспект- правда, средством столь сложным и интересным, что оно способно поглотить массу внимания не только специалистов в области компьютерных технологий, но и непрофессионалов.

Информатика - комплекс научно-практических дисциплин, изучающих все аспекты получения, хранения, преобразования, передачи и использования информации. Существует много определений понятия Информатика. Однако, из какого бы определения ни исходить, все согласны с тем, что у современной информатики есть два взаимодополняющих аспекта - научный и технологический. Первый является более устоявшимся, второй - весьма мобильным, хотя и в технологической части информатики есть вполне сформировавшееся ядро, которое мало подвержено изменениям.

Приведем примеры, опираясь на имеющийся опыт. Так, существует большое количество алгоритмических языков программирования, и допустим, что человеку, умеющему работать с Бейсиком или Паскалем, приходится браться за Си. Новая система обозначений, дополнительные возможности - на некоторое время это может полностью поглотить внимание, но постепенно приходит понимание: главное - навыки к алгоритмизации и структурированию данных, и если они есть, то кодирование алгоритмов на другом языке - дело не самое сложное. Или: исчерпаны возможности привычного текстового редактора (или он просто вышел из моды - тоже бывает), и нужно переходить на новый. Если человек понимает принципы работы программ такого рода, имеет устойчивые навыки работы с одной из них, то освоить другую, даже с большими возможностями, обычно несложно. Подтверждается известная истина: образование - это то, что остается, когда детали знаний забываются.

Итак, главное при изучении информатики - освоить фундаментальные понятия каждой из ее областей, ориентироваться в их взаимосвязи, приобрести навыки практической работы с важнейшими техническими и программными средствами.

Практически в каждой науке есть фундамент, без которого ее прикладные аспекты лишены основ. Для математики такой фундамент составляют теория множеств, теория чисел, математическая логика и некоторые другие разделы; для физики - это основные законы классической и квантовой механики, статистической физики, релятивистской теории; для химии - периодический закон, его теоретические основы и т.д. Можно, конечно, научиться считать и пользоваться калькулятором, даже не подозревая о существовании указанных выше разделов математики, делать химические анализы без понимания существа химических законов, но при этом не следует думать, что знаешь математику или химию. Примерно то же с информатикой: можно изучить несколько программ и даже освоить некоторое ремесло, но это отнюдь не вся информатика, точнее, даже не самая главная и интересная ее часть.

Теоретические основы информатики - пока не вполне сложившийся, устоявшийся раздел науки. Он возникает на наших глазах, что делает его особенно интересным - нечасто мы наблюдаем и даже можем участвовать в рождении новой науки! Как и теоретические разделы других наук, теоретическая информатика формируется в значительной мере под влиянием потребностей обучения информатике.

Теоретическая информатика - наука математизированная. Она складывается из ряда разделов математики, которые прежде казались мало связанными друг с другом: теории автоматов и теории алгоритмов, математической логики, теории формальных языков и грамматик, реляционной алгебры, теории информации и др. Теоретическая информатика старается методами точного анализа ответить на основные вопросы, возникающие при работе с информацией, например вопрос о количестве информации, сосредоточенной в той или иной информационной системе, наиболее рациональной организации таких систем для хранения и поиска информации, а также о существовании и свойствах алгоритмов преобразования информации. Конструкторы устройств хранения данных проявляют чудеса изобретательности, увеличивая объем и плотность хранения данных на дисках, но в основе этой деятельности лежат теория информации и теория кодирования. Для решения прикладных задач существуют замечательные программы, но для того, чтобы грамотно поставить прикладную задачу, привести ее к виду, который подвластен компьютеру, надо знать основы информационного и математического моделирования и т.д. Только освоив эти разделы информатики, можно считать себя специалистом в этой науке. Другое дело - с какой глубиной осваивать; многие разделы теоретической информатики достаточно сложны и требуют основательной математической подготовки.


Выдержка из текста работы

1. РАЗЛИЧНЫЕ УРОВНИ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ

Понятие информация является одним из фундаментальных в современной науке вообще и базовым для изучаемой нами информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. Аналогичными «неопределяемыми» понятиями, например, в математике является «точка» или «прямая». Так, можно сделать некоторые утверждения, связанные с этими математическими понятиями, но сами они не могут быть определены с помощью более элементарных понятий.

В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации».

Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи» (рис. 1). Так, при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.

2. НЕПРЕРЫВНАЯ И ДИСКРЕТНАЯ ИНФОРМАЦИЯ

Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция - носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал - это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.

В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала - непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения - процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха.

3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2,., N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H=f(N) (1)

а сама функция/является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1,2,., 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через Н2.

За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = H1 - H2 (2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (H2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.

Следующим важным моментом является определение вида функции f в формуле (1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1, 2, ., N) будет равно N в степени М:

X = NM (3)

Так, в случае двух бросаний кости с шестью гранями имеем: X=62=36. Фактически каждый исход X есть некоторая пара (X1, X2), где Х1 и Х2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»):

f(6M) = М•f(6).

Данную формулу можно распространить и на случай любого N:

f(NM) = M•f(N). (4)

Прологарифмируем левую и правую части формулы (3): lnХ = M•lnN, M = lnX/lnN.

Подставляем полученное для М значение в формулу (4):

f(X) = lnXlnM•f(N).

Обозначив через К положительную константу, получим: f(X) = К•lnХ, или, с учетом (1), Н = K•lnN. Обычно принимают К= 1/ln 2. Таким образом

H = log2 N. (5)

Это - формула Хартли.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)/N. При этом вероятность i-го исхода Рi. равняется, очевидно, 1/N.

Таким образом,

H = . (6)

Та же формула (6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Рi могут быть различны). Формула (6) называется формулой Шеннона.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле (5)

Н = log2 34 = 5 бит.

Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.

3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2,., N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H=f(N) (1)

а сама функция/является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1,2,., 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через Н2.

За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = H1 - H2 (2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (H2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.

Следующим важным моментом является определение вида функции f в формуле (1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1, 2, ., N) будет равно N в степени М:

X = NM (3)

Так, в случае двух бросаний кости с шестью гранями имеем: X=62=36. Фактически каждый исход X есть некоторая пара (X1, X2), где Х1 и Х2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»):

f(6M) = М•f(6).

Данную формулу можно распространить и на случай любого N:

f(NM) = M•f(N). (4)

Прологарифмируем левую и правую части формулы (3): lnХ = M•lnN, M = lnX/lnN.

Подставляем полученное для М значение в формулу (4):

f(X) = lnXlnM•f(N).

Обозначив через К положительную константу, получим: f(X) = К•lnХ, или, с учетом (1), Н = K•lnN. Обычно принимают К= 1/ln 2. Таким образом

H = log2 N. (5)

Это - формула Хартли.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)/N. При этом вероятность i-го исхода Рi. равняется, очевидно, 1/N.

Таким образом,

H = . (6)

Та же формула (6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Рi могут быть различны). Формула (6) называется формулой Шеннона.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле (5)

Н = log2 34 = 5 бит.

Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.

4. ИНФОРМАЦИЯ: БОЛЕЕ ШИРОКИЙ ВЗГЛЯД

Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смысле) происхождения на первый план могут выступить такие ее свойства как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается с точки зрения как формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы не исключают количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.

5. ИНФОРМАЦИЯ И ФИЗИЧЕСКИЙ МИР

Известно большое количество работ, посвященных физической трактовке информации. Эти работы в значительной мере построены на основе аналогии формулы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли.

Заметим, что при всех выводах формулы Больцмана явно или неявно предполагается, что макроскопическое состояние системы, к которому относится функция энтропии, реализуется на микроскопическом уровне как сочетание механических состояний очень большого числа частиц, образующих систему (молекул). Задачи же кодирования и передачи информации, для решения которых Хартли и Шенноном была развита вероятностная мера информации, имели в виду очень узкое техническое понимание информации, почти не имеющее отношения к полному объему этого понятия. Таким образом, большинство рассуждений, использующих термодинамические свойства энтропии применительно к информации нашей реальности, носят спекулятивный характер. В частности, являются необоснованными использование понятия «энтропия» для систем с конечным и небольшим числом состояний, а также попытки расширительного методологического толкования результатов теории вне довольно примитивных механических моделей, для которых они были получены. Энтропия и негэнтропия - интегральные характеристики протекания стохастических процессов - лишь параллельны информации и превращаются в нее в частном случае.


Заключение

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не завершены) усилия ученых, представляющих самые разные области знания, построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Движение информации есть сущность процессов управления, которые суть проявление имманентной активности материи, ее способности к самодвижению. С момента возникновения кибернетики управление рассматривается применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых - искусственных (технических) и естественных (природных) - системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной науки- синергетики.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это над дисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.


Список литературы

1. Могилев А.В., Пак Н.И., Ханнер Е.К. Информатика: Учеб. пособие для студ. пед. вузов. – 2-е изд., стер. – М.: Издательский центр «Академия», 2003. – 816 с.

2. Леоньтнв В.П. Новейшая энциклопедия персонального компьютера 2003. – 5-е изд., перераб. и доп. – М.: ОМЛА-ПРЕСС, 2003. – 957 с.: ил.


Нужна похожая работа?
Закажите авторскую работу по вашему заданию.
  • Цены ниже рыночных
  • Удобный личный кабинет
  • Необходимый уровень антиплагиата
  • Прямое общение с исполнителем вашей работы
  • Бесплатные доработки и консультации
  • Минимальные сроки выполнения

Мы уже помогли 24535 студентам

Средний балл наших работ

  • 4.89 из 5
Узнайте стоимость
написания вашей работы
Похожие материалы
  • Контрольная работа:

    Основы теории коммуникации - Понятие информации. Информация как основной элемент коммуникационной системы

    20 страниц(ы) 

    Введение….
    1. Информация как технологическая основа менеджмента.
    1.1. Понятие информации, ее виды и свойства.
    1.2. Управленческая информация.
    1.3. Коммуникативные свойства информации.
    2. Интегрирующая роль коммуникации.
    2.1. Понятие коммуникации. Язык.
    2.2. Два аспекта коммуникации.
    2.3. Виды коммуникаций.
    2.4. Элементы коммуникации.
    2.5 Современные средства коммуникации в менеджменте….
    Заключение….
    Литература….
  • Контрольная работа:

    Понятие информации. Информация как основной элемент коммуникационной системы

    20 страниц(ы) 

    Введение….
    1. Информация как технологическая основа менеджмента.
    1.1. Понятие информации, ее виды и свойства.
    1.2. Управленческая информация.
    1.3. Коммуникативные свойства информации.
    2. Интегрирующая роль коммуникации.
    2.1. Понятие коммуникации. Язык.
    2.2. Два аспекта коммуникации.
    2.3. Виды коммуникаций.
    2.4. Элементы коммуникации.
    2.5 Современные средства коммуникации в менеджменте….
    Заключение….
    Литература….
  • Дипломная работа:

    Влияние информации на здоровье и безопасность подросткового поколения

    57 страниц(ы) 

    ВВЕДЕНИЕ
    ГЛАВА I. ТЕОРЕТИЧЕСКИЕ ПОДХОДЫ К ИССЛЕДОВАНИЮ ПРОБЛЕМЫ ВЛИЯНИЯ ИНФОРМАЦИИ НА ЗДОРОВЬЕ И БЕЗОПАСНОСТЬ ПОДРОСТКОВОГО ПОКОЛЕНИЯ
    1.1. Определение понятий в исследовании проблемы
    влияния информации на здоровье и безопасность подростков
    1.2. Законодательство Российской Федерации по защите несовершеннолетних от негативной информации
    1.3. Особенности влияния информации на здоровье и
    безопасность подростков в аспекте психологической
    безопасности
    1.4. Интернет – как фактор развития аддиктивного поведения подростков
    ГЛАВА II. ОЦЕНКА ВЛИЯНИЯ ИНФОРМАЦИИ, В ЧАСТНОСТИ ИНТЕРНЕТА, НА ЗДОРОВЬЕ И БЕЗОПАСНОСТЬ ПОДРОСТКОВ
    (ЭМПИРИЧЕСКОЕ ИССЛЕДОВАНИЕ)
    2.1. Организация и описание методов исследования
    2.2. Краткая характеристика использованных методов
    исследования
    2.2.1. Тест на Интернет-аддикцию (Т.А. Никитина, А.Ю. Егоров)
    2.2.2. Опросник агрессивности Басса-Дарки
    2.2.3. Методика диагностики агрессивности А. Ассингера
    2.2.4. Методика «Многофакторный личностный опросник
    (Р.Кэттелл)
    2.3. Анализ результатов исследования
    ЗАКЛЮЧЕНИЕ
    Рекомендации учителям, родителям и учащимся
    СПИСОК ЛИТЕРАТУРЫ
  • Курсовая работа:

    Организация рекламы в розничных торговых предприятиях и ее эффективность

    35 страниц(ы) 

    Введение 3
    1. Понятие, виды и функции рекламы 6
    2. Методы оценки психологической эффективности рекламы 14
    3. Деятельность, реклама и маркетинг ООО «ТФ Обувь»
    19
    4. Совершенствование рекламной политики в ООО «ТФ Обувь»
    27
    Заключение 31
    Список литературы 34

  • Дипломная работа:

    Ограничение свободы распространения информации в целях противодействия экстремистской деятельности: конституционно-правовой аспект

    62 страниц(ы) 

    ВВЕДЕНИЕ 3
    ГЛАВА 1. ОГРАНИЧЕНИЕ СВОБОДЫ РАСПРОСТРАНЕНИЯ ИНФОРМАЦИИ: ДОКТРИАЛЬНЫЕ ПОДХОДЫ И НОРМАТИВНО-ПРАВОВЫЕ РЕШЕНИЯ
    1.1. Правовая определенность понятия «экстремистская деятельность». 7
    1.2. Конституционные ограничения свободы распространения информации 17
    ГЛАВА 2. МЕРЫ ОГРАНИЧЕНИЯ СВОБОДЫ РАСПРОСТРАНЕНИЯ ИНФОРМАЦИИ В ЦЕЛЯХ ПРОТИВОДЕЙСТВИЯ ЭКСТРЕМИСТСКОЙ ДЕЯТЕЛЬНОСТИ.
    2.1. Признание информационных материалов экстремистскими 29
    2.2. Ограничение деятельности средств массовой информации 41
    2.3. Ограничение распространения информации в сети интернет 48
    ЗАКЛЮЧЕНИЕ 54
    СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ И ЛИТЕРАТУРЫ 58
  • Реферат:

    Информация, ее виды и свойства

    25 страниц(ы) 

    ЗАДАНИЕ 1 3
    ВВЕДЕНИЕ 3
    1. РАЗЛИЧНЫЕ УРОВНИ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ 6
    2. НЕПРЕРЫВНАЯ И ДИСКРЕТНАЯ ИНФОРМАЦИЯ 8
    3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ: ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ 11
    Вероятностный подход 11
    Объемный подход 15
    4. ИНФОРМАЦИЯ: БОЛЕЕ ШИРОКИЙ ВЗГЛЯД 16
    5. ИНФОРМАЦИЯ И ФИЗИЧЕСКИЙ МИР 19
    ЗАКЛЮЧЕНИЕ 22
    СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 23
    ЗАДАНИЕ 2 24
    ЗАДАНИЕ 3 25

Не нашли, что искали?

Воспользуйтесь поиском по базе из более чем 40000 работ

Наши услуги
Дипломная на заказ

Дипломная работа

от 8000 руб.

срок: от 6 дней

Курсовая на заказ

Курсовая работа

от 1500 руб.

срок: от 3 дней

Отчет по практике на заказ

Отчет по практике

от 1500 руб.

срок: от 2 дней

Контрольная работа на заказ

Контрольная работа

от 100 руб.

срок: от 1 дня

Реферат на заказ

Реферат

от 700 руб.

срок: от 1 дня

Другие работы автора
  • Курсовая работа:

    Проблема вступления России в ВТО.

    25 страниц(ы) 

    Введение 3
    1 Всемирная торговая организация ВТО 6
    2 Процесс присоединения России к Всемирной торговой организации 8
    3 Положительные и отрицательные стороны вступления в ВТО 15
    4 Риски России 18
    5 Последствия для аграрного сектора страны 21
    Заключение 24
    Список используемой литературы 25
  • Курсовая работа:

    Патриотическое воспитание на уроках истории и обществознания.

    44 страниц(ы) 

    Введение 3
    Глава I Гражданско–патриотическое воспитание школьников 7
    1.1 История развития содержания понятий «гражданское воспитание» «патриотическое воспитание» в истории педагогики 7
    1.2 Актуальность гражданско – патриотического воспитания в современной России 18
    1.3 Содержание, цели и задачи гражданско – патриотического образования и воспитания школьников 20
    Глава II Патриотическое воспитание при изучении истории и обществознания в общеобразовательной школе 24
    2.1 Концепция основных подходов к патриотическому воспитанию при изучении истории 24
    2.2 Организация патриотического воспитания на уроках истории и обществознания 28
    2.3 Использование краеведческого материала на уроках истории по патриотическому воспитанию школьников. 36
    Заключение 42
    Список использованной литературы 43
  • Реферат:

    Традиционно-бытовая культура мира. Религия и искусство.

    18 страниц(ы) 

    Задание 1 3
    Введение 3
    1 Традиции как способ формирования и функционирования народной культуры 4
    2 Типы традиционно-бытовой культуры 7
    2.1 Представление о красоте у разных народов 7
    2.2 Свадебные традиции некоторых стран мира 10
    Заключение 14
    Задание 2 15
    Библиографический список 18
  • Реферат:

    Философские аспекты Буддизма.

    21 страниц(ы) 


    Введение 3
    История Буддизма 5
    Основная сущность Буддизма 8
    Этика Буддизма 15
    Национальные формы Буддизма 17
    Заключение 19
    Литература: 21

  • Реферат:

    Государство и право феодальной Франции

    25 страниц(ы) 

    Введение 3
    I. Период феодальной раздробленности 4
    2. Начало объединения страны 9
    3. Период сословно-представительной монархии 12
    4. Период абсолютной монархии (XVI — XVIII вв.) 21
    Заключение 24
    Список литературы 25
  • Реферат:

    Диалектика Сократа как искусство творческого спора и диалога.

    24 страниц(ы) 


    Введение 3
    1 Образ жизни Сократа - беседы 5
    2 Ирония Сократа 6
    3 Суд и смерть 8
    4 Философия в понимании Сократа 9
    5 Этический рационализм Сократа 11
    6 Сократовский метод 12
    7 Диалектика Сократа 13
    Заключение 21
    Список литературы 24
  • Реферат:

    Культура постсоветской России. Особенности и перспективы развития.

    33 страниц(ы) 

    Введение 3
    1 Традиции народности в культуре постсоветской России 4
    2 Литературные клубы и объединения в постсоветской России 16
    2.1 Петербург и другие города 17
    2.2 Литературные клубы Москвы 19
    2.1.1 «Вечера в музее Сидура» 20
    2.1.2 «Классики 21 века» 21
    2.1.3 Георгиевский клуб 21
    2.1.4 Эссе-клуб 22
    2.1.5 «Авторник» 23
    2.1.6 Крымский клуб 23
    2.1.7 Клуб литературного перформанса и салон «Премьера» 25
    2.3 «Кризис клуба», поиск новых форм 26
    Заключение 31
    Список использованной литературы 33
  • Реферат:

    Производство пенициллина

    16 страниц(ы) 

    Введение 3
    1.Антибиотики 5
    2.Появление пенициллина 8
    3.Получение пенициллина 13
    Заключение 15
    Литература 16
  • Реферат:

    Крестьянская реформа.

    16 страниц(ы) 

    Введение 3
    1. Необходимость принятия крестьянской реформы 4
    2. Пути решения крестьянского вопроса 9
    3. Значение и последствия крестьянской реформы для развития России. 13
    Заключение 15
    Список использованных источников 16
  • Реферат:

    Запад-Восток два типа рациональности

    22 страниц(ы) 

    Введение 3
    1 Философия Запада и Востока 4
    2 Рациональность в мире культуры Запад-Восток 12
    Заключение 20
    Библиографический список 22