WWW.KONFERENCIYA.SELUK.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА - Конференции, лекции

 

Автоматическая классификация текстов

Лекция № 6 курса

Алгоритмы для Интернета

Юрий Лифшиц

2 ноября 2006 г.

Содержание

1. Постановка задачи, подходы и применения 2 1.1. Введение................................................. 2 1.2. Постановка задачи........................................... 2 1.3. Где применяется автоматическая классификация текстов..................... 2. Индексация документов 2.1. Базовый подход............................................. 2.2. Уменьшение размерности векторов.................................. 3. Построение и обучение классификатора 3.1. Выбор порога.............................................. 3.2. Линейный on-line классификатор................................... 3.3. Метод регрессии............................................. 3.4. ДНФ-правило.............................................. 3.5. Нейронные сети............................................. 4. Оценка качества классификации 4.1. Метрики из информационного поиска................................ 4.2. Как сравнивать два метода классификации............................. Итоги Источники Законспектировала Беляева Юлия.

1. Постановка задачи, подходы и применения 1.1. Введение В последнее десятилетие количество электронных документов резко возросло, в связи с чем возникла необходимость решения различных задач для удобной работы с ними. Классификация текстов (text categorization, далее TC) сортировка текстовых документов по заранее определённым категориям (в противоположность кластеризации, где множество категорий заранее неизвестно) одна из таких задач.

Методы TC лежат на стыке двух областей информационного поиска (information retrieval, извлечение информации, далее IR) и машинного обучения (machine learning, далее ML). Общие части двух этих подходов способы представления документов и способы оценки качества TC, а различия состоят только в способах собственно поиска.

В этой лекции TC будет рассматриваться с точки зрения ML. Согласно парадигме ML, классифицирующее правило строится постепенно на основе тренировочной коллекции. Такой подход обеспечивает качество классификации, сравнимое с качеством классификации, производимой человеком.

1.2. Постановка задачи Общая постановка задачи Пусть D = {d1,..., d|D| } множество документов, C = {c1,..., c|C| } множество категорий, : D C {0, 1} неизвестная целевая функция, которая по паре di, cj говорит, принадлежит ли документ di категории cj (1 или T ) или нет (0 или F ). Задача состоит в построении функции, максимально близкой к.

В такой постановке задачи надо отметить два важных момента.

1. Нет никакой дополнительной информации о категориях, это просто ярлыки, которыми помечаются документы.

2. Нет никакой внешней информации о документах, например, года публикации, источника и т.д. Известна лишь та информация, которую можно извлечь из самого документа.

Коллекция классифицированных документов Методы ML, используемые для классификации, полагаются на наличие коллекции = {d1,..., d|| } заранее отклассифицированных документов, то есть таких, для которых уже точно известно значение целевой функции. Для того, чтобы после построения классификатора можно было оценить его эффективность, разбивается на две части, не обязательно равного размера.

1. Учебная (training-and-validation) коллекция TV. Классификатор строится на основании характеристик этих документов (то есть, вообще говоря, зависит от TV ).

2. Тестовая (test) коллекция Te. На ней проверяется качество классификации. Документы из Te никаким образом не должны участвовать в процессе построения классификатора, иначе полученные результаты теста уже не будут соответствовать действительности.

Кроме приведённого выше разбиения, уместным бывает дополнительно разделить коллекцию TV на две: учебную (training) Tr, на основании которой классификатор строится, и проверочную (validation) Va, на основании которой оптимизируются его параметры.

Виды классификации Выше была поставлена задача точной классификации. Часто используется и так называемое ранжирование, при котором множество значений целевой функции это отрезок [0, 1]. Документ при ранжировании может относиться не к одной, а сразу к нескольким категориям с разной степенью принадлежности, то есть категории не обязательно не пересекаются между собой.

Теоретики часто предпочитают говорить о бинарной классификации (binary TC ) случае, при котором существуют только две непересекающиеся категории. К бинарной классификации сводятся многие задачи TC. Например, классификация по множеству категорий C = {c1,..., c|C| } (при условии независимости категорий) разбивается на | C | бинарных классификаций по множеству {ci, ci }, где i [1, | C |].

Кроме описанной выше документо-центрированной классификации, иногда применяют следующую классификацию: для каждой категории выдаётся список документов, к ней принадлежащих.



1.3. Где применяется автоматическая классификация текстов Области применения TC:

– фильтрация спама;

– сортировка новостей;

– проверка авторства;

– подбор ключевых слов;

– составление интернет-каталогов;

– контекстная реклама;

– снятие неоднозначности (автоматические переводчики);

– автоматическое аннотирование.

2. Индексация документов 2.1. Базовый подход Текст представляется в виде мультимножества термов (слов). Каждому слову сопоставлено некоторое число вес характеристика встречаемости этого слова в тексте. Порядок слов, как правило, не учитывается, учитывается только частота встречаемости слова в тексте и, возможно, другие признаки, такие как слово встретилось в заголовке, слово выделено другим цветом и т.д. На основании этих признаков каждому слову в тексте сопоставляется его вес. Ещё один способ представить вес слова TF · IDF (TF = term frequency, IDF = inversed document frequency). IDF показывает, насколько редко слово встречается во всех документах, TF частота встречаемости слова в конкретном документе. Иногда проводится нормализация по документу для того, чтобы сумма квадратов всех весов в нём была равна 1. Каждый текст это вектор многомерном пространстве, координаты номера слов, значения координат значения весов. Размерность вектора это количество слов, которые встречаются в документах. Из-за того, что учитываются все слова, которые когда-либо встретились в документах, вектора получаются с огромным количеством координат, большинство из которых нули.

2.2. Уменьшение размерности векторов Существуют различные расширения базового подхода. Например, можно по-другому выбирать термы.

Бывает полезным брать в качестве термов не слова, а устойчивые группы слов, учитывать словоформы, вводить дополнительные термы (например, характеризующие длину документа). Для сокращения размерности векторов можно не учитывать редкие слова, которые увеличивают размер правила, но, как правило, не несут полезной для классификатора информации. Также можно не рассматривать слишком часто встречающиеся слова, такие как предлоги, артикли и т.п. Для каждого терма можно определить его коэффициент полезности (насколько этот терм полезен для классификации). Эту характеристику можно определить, основываясь на корреляции между встречаемостью слова в документе и принадлежностью этого документа к одной (или нескольким) из категорий. Например, аббревиатура ИТМО чаще встречается в документах из категории образование, чем в документах не из этой категории, соответственно, имеет большой коэффициент полезности.

Кроме удаления лишних термов, можно ещё группировать несколько термов в один. Например, можно группировать вместе синонимы. Ещё один подход совстречаемость (cooccurrence): объединять слова, часто встречающиеся в одном окружении. Например, в словосочетаниях руководитель компании, директор компании слова руководитель и директор встречаются перед словом компания. Поэтому их можно объединить в один искусственный терм. В общем случае для слов определяется некая метрика близости, и группы близких слов склеиваются в один терм. Вес такого терма в каждом конкретном документе рассчитывается из весов представителей группы, которые встречаются в этом документе.

Для уменьшения размерности векторов иногда используется сингулярное разложение (singular value decomposition, SVD). Что такое сингулярное разложение? Пусть A матрица mn. Разложение A = U SV называется сингулярным, если U ортогональная матрица mm, V ортогональная матрица nn, а S диагональная матрица mn. Для любой матрицы A можно вычислить её сингулярное разложение. Можно показать, что если S матрица S, в которой оставили только k наибольших чисел, то A = U S V самое лучшее приближение матрицы A, имеющее ранг k.

Теперь допустим, что существует такой линейно независимый набор документов Db = {di1... dik }, что все остальные вектора документов выражаются как линейная комбинация векторов этого набора. Тогда можно взять множество Db в качестве базиса; в таком базисе у каждого документа будет уже k координат.

Таким образом можно существенно сократить размерность.

Если ранг матрицы документов больше чем k, такого базиса найти нельзя. Но сингулярное разложение позволяет найти его приближённо. Для этого надо найти искомый базис Db для приближённой матрицы A ранга k. Каждый вектор документа, не лежащий в линейной оболочке множества Db, можно заменить на его проекцию. Точность такого приближения будет зависеть от выбора k.

3. Построение и обучение классификатора 3.1. Выбор порога В первой части говорилось про точную классификацию и ранжирование. Построение классификатора второго вида обычно состоит в определении функции CSVi : D [0, 1], которая для каждого документа dj возвращает значение принадлежности (categorization status value) dj к ci. Построение точного классификатора можно делать двумя способами: сразу строить функцию CSVi : D {T, F } или сначала вычислить аналогичную ранжированию функцию CSVi : D [0, 1], а затем определить порог (threshold ) i такой, что CSVi i интерпретируется как T, а CSVi < i интерпретируется как F.

Выбирать порог можно несколькими способами.





– Пропорциональный метод. Для каждой категории ci на коллекции Tr вычисляется, какая доля документов ей принадлежит. Пороговое значение выбирается так, чтобы на Va доля документов, отнесённых к ci, была такой же.

– Метод k ближайших категорий. Каждый документ di считается принадлежащим к k ближайшим категориям и соответственно этому выбирается пороговое значение. Этот метод имеет некоторые недостатки, которые хорошо демонстрирует следующий пример. Пусть есть три категории c1, c2 и c3 и два документа d1 и d2, а функция принадлежности CSV задаётся таблицей:

Если для каждого документа выбирать по одной категории, то документ d1 попадёт в категорию c1, а документ d2 в категорию c3. При этом CSV3 (d1 ) > CSV3 (d2 ), и d1 не лежит в c3, а d2 лежит, что довольно странно. Метод k ближайших категорий используется при подборе ключевых слов.

3.2. Линейный on-line классификатор Идея этого метода проста: правило классификатора будет скалярным произведением. Пусть каждой категории ci соответствует вектор ci = {ci1,..., cin }, где n размерность пространства документов. В качестве правила классификатора используется следующая формула:

Обычно проводится нормализация так, что итоговая формула для CSVi (d) это просто косинус угла между вектором категории ci и вектором документа d.

На примере этого классификатора становится понятно, почему так важно было сократить количество термов: необходимо было сократить размеры векторов категорий.

Как подбираются координаты вектора ci ? Они выводятся в ходе обучения (обучение проводится по каждой категории независимо от остальных). В начале выбирается тривиальный вектор ci = (1,..., 1).

Для каждого учебного документа применяется текущее правило. При неудаче в координаты категории, соответствующие термам проваленного документа, вносятся поправки. Обычно к ним просто прибавляется заранее выбранная константа > 0, если полученное значение CSV i (d) меньше целевого, и вычитается константа > 0, если значение CSV i (d) больше целевого. Необходимо заметить, что полученный в результате вектор категории будет неравномерно зависеть от векторов документов из-за того, что они обрабатываются в определённом порядке.

Имеет смысл после каждой корректировки проводить тестирование получившегося правила на Va и хранить в памяти правило, которое дало лучший результат. Если с какого-то момента обучения этот результат не улучшается, значит обучение закончено, и последнее правило с лучшим результатом и есть получившийся классификатор.

На основе получившегося вектора можно судить о незначимых для классификации словах. Если предположить, что функция CSV i принимает значения на отрезке [1, 1], где положительные значения интерпретируются как принадлежность документа категории, то после работы алгоритма веса незначимых для классификации слов окажутся близкими к нулю. Эти слова можно не индексировать.

Существуют различные вариации этого алгоритма.

– Мультипликативные поправки. Можно использовать мультипликативные поправки для корректировки весов категории, то есть умножать соответствующие веса на коэффициенты 1 > 1 или – Поправки при удачной классификации. Иногда бывает полезным немного корректировать коэффициенты и при удачной классификации.

– Поправки в неактивные слова. При неудачной классификации можно вносить поправки во все слова, а не только в слова текущего документа, в частности, пропорционально уменьшать координаты по всем неиспользуемым словам и увеличить координаты по всем используемым словам. Это может свести на нет влияние слов, которые не встречаются в учебной коллекции.

Преимущество описанного выше on-line подхода в том, что обучение можно проводить и за пределами учебной коллекции TV, непосредственно при работе правила (конечно, только при наличии обратной связи, то есть знания о том, правильно ли сработал классификатор).

3.3. Метод регрессии Метод регрессии это линейный, не потоковый метод. Он учится сразу на всей коллекции.

Пусть T множество термов, C множество категорий. Тренировочная коллекция T r представляется виде двух матриц:

– матрица документов I размера |T r| |T |, в которой каждая строчка это документ, а столбец – матрица ответов O размера |T r| |C|, где каждая строка соответствует документу, столбец категории, а число на пересечении i-й строки и j-го столбца значению CSVj (di ).

Задача алгоритма найти такую матрицу линейных правил M, чтобы минимизировать Столбцы матрицы M это характеристические вектора категорий. Фактически, это тот же линейный классификатор, рассмотренный ранее. Отличие только в методе обучения.

Алгоритм нахождения матрицы M :

1. Для каждой категории ci взять вектор ответов oi и спроецировать на линейную оболочку столбцов 2. Разложить полученную проекцию по базису столбцов I.

3. Это разложение и будет вектором ci, характеризующим данную категорию.

3.4. ДНФ-правило ДНФ-классификатор состоит из множества правил вида ДНФ-формула (ДНФ дизъюнктивная нормальная форма) представляет собой дизъюнкцию нескольких конъюнкций; документ принадлежит категории, если он удовлетворяет этой формуле, то есть удовлетворяет хотя бы одному члену дизъюнкции.

На начальной стадии для каждой категории ci, состоящей из документов {di,..., di i | }, выписывается следующая формула:

Классификатор, основанный на таком множестве формул, абсолютно правильно работает на учебной коллекции, но, во-первых, он бесполезен на других документах, во-вторых, пользоваться таким классификатором неудобно из-за большой длины правил. Поэтому проводится серия упрощений (склеивание скобок, удаление лишних посылок и т.п.), в ходе которых может пострадать точность работы на учебной коллекции, так как главное получить осмысленную формулу для новых документов.

3.5. Нейронные сети В данном случае классификатор представляет собой нейронную сеть, входы которой соответствуют термам, а выходы категориям. Для того, чтобы классифицировать документ dj, веса его термов wkj подаются на соответствующие входы сети; активация распространяется по сети, и значения, получившиеся на выходах, и есть результат классификации. Типичный метод обучения такой сети обратное распространение ошибки (back propagation). Если на одном из тренировочных документов получен неправильный ответ на одном из выходов, то ошибка распространяется обратно по сети, и веса рёбер меняются так, чтобы ошибку уменьшить.

4. Оценка качества классификации 4.1. Метрики из информационного поиска Какие бывают ошибки Рассмотрим случай бинарной классификации. Есть категория c и её дополнение c. Классификатор говорит, принадлежит ли документ c или нет. Таблица возможных исходов:

Здесь true positive (далее TP ) число документов, правильно отнесённых к категории c, false positive (далее FP ) число документов, неправильно отнесённых к категории c; false negative (далее FN ) и true negative определяются аналогично. Обычно считается, что false negative хуже, чем false positive (например, при диагностике заболеваний объявить здорового человека больным и отправить его на дополнительное обследование не так плохо, как объявить больного человека здоровым).

Две метрики Полнота это доля найденных документов из категории среди всех документов этой категории.

Точность это доля найденных документов из категории среди всех документов, которые отнесены к ней классификатором (насколько много из отнесённых классификатором к категории документов на самом деле к ней принадлежат).

4.2. Как сравнивать два метода классификации Выше были определены полнота и точность. Они хорошо подходят для оценки качества классификации в ходе обучения. Два разных метода можно корректно сравнивать по полноте и точности только если:

– сравнение проводится на одной и той же коллекции (одинаковые документы и категории у обоих – коллекция одинаково разбита на Tr, Va и Te;

– документы одинаково проиндексированы.

Существует и неявный способ оценки. Классификатор сравнивается с некоторым эталонным классификатором при соблюдении вышеперечисленных условий.

Итоги В TC применяются методы двух дисциплин: ML и IR.

Классификация производится в три этапа: индексация, построение классификатора, оценка качества.

Существуют различные классификаторы: линейный, ДНФ-правило, метод регрессии, нейронные сети.

Источники [1] Fabrizio Sebastiani. Machine Learning in Automated Text Categorization http://nmis.isti.cnr.it/sebastiani/Publications/ACMCS02.pdf [2] Страница курса http://logic.pdmi.ras.ru/yura/internet.html

Похожие работы:

«Ь1бЛ ш Министерство образования Ннауки РШ1\'б11Ш* Ъ в я п ж Павлодарский государственный университет им. С. Торайгырова Биолого-химический институт Кафедра экологии и географии МЕТОДЫ ПОЛЕВЫХ ФИЗИКО-ГЕОГРАФИЧЕСКИХ ИССЛЕДОВАНИЙ Опорный конспект лекции Павлодар УДК 911.2 (07) ББК 26.82 я7 М 54 Рекомендовано ученым Советом ПГУ нм. С. Торайгырова Рецензенты: кандидат геолого-минералогических наук, доцент Калиева А.А., ПГУ им. С. Торайгырова старший преподаватель С.Ш.Смайлов., ГТГПИ Алтаева Р.А....»

«анализа руд, перегонный куб и печи. Стоимость лаборатории с оборудованием составила около 2000 руб. В этой лаборатории, расположенной вблизи жилого дома с квартирой М.В. Ломоносова, великий химик получил, наконец, возможность вести экспериментальные исследования (впрочем, частично проводились они и у него дома) в области физики и химии, а также читать лекции студентам с демонстрацией опытов. 24 июля 1747 г. Императрица Елизавета, обнародовав Регламент Императорской Академии наук и художеств в...»

«Лев Маркович Веккер ПСИХИКА И РЕАЛЬНОСТЬ: ЕДИНАЯ ТЕОРИЯ ПСИХИЧЕСКИХ ПРОЦЕССОВ. - М.: Смысл, 1998. – 685 с. Об авторе этой книги Я испытываю глубокое удовлетворение, представляя читателям эту книгу и ее автора. В контекст отечественной психологии возвращается один из ее творцов, чьи исследования и теоретические построения в высшей степени необходимы для дальнейшего развития нашей науки, для поддержания ее в рабочем состоянии и для осуществления полноценного психологического образования. Лев...»

«КОНСПЕКТ ЛЕКЦИЙ ПО КУРСУ ХИМИЯ ПОВЕРХНОСТИ доц. Василевская Е.И. Лекция 1 ОБЩИЕ ПРЕДСТАВЛЕНИЯ О ПОВЕРХНОСТИ ТВЕРДЫХ ТЕЛ История становления химии поверхности как науки. Поверхностные молекулярные и химические процессы играют основную роль в явлениях гетерогенного катализа, адсорбции, электрохимии и коррозии металлов. Большая армия биологов, биофизиков, био- и геохимиков интенсивно изучает сложные межфазные процессы в мембранах клеток, в пористых органических и неорганических веществах....»

«МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ Государственное образовательное учреждение Оренбургский государственный университет Колледж электроники и бизнеса Кафедра экономико-правовых дисциплин Е.А.ЕПИФАНОВА ЭКОЛОГИЧЕСКИЕ ОСНОВЫ ПРИРОДОПОЛЬЗОВАНИЯ КРАТКИЙ КУРС ЛЕКЦИЙ Рекомендовано к изданию издательским советом Государственного образовательного учреждения профессионального образования Оренбургский государственный университет Оренбург 2003 ББК 20.1Я73 Е – 67 УДК 574 (075.3) Рецензент...»

«Российский фонд фундаментальных исследований Томский государственный педагогический университет Томский государственный университет Томский политехнический университет Институт химии нефти СО РАН Национальный торфяной комитет РФ Томское отделение Докучаевского общества почвоведов БОЛОТА И БИОСФЕРА МАТЕРИАЛЫ ШЕСТОЙ ВСЕРОССИЙСКОЙ НАУЧНОЙ ШКОЛЫ (10-14 сентября 2007 г.)) Томск 2007 УДК 551.0+556.56 ББК 26.222.7 + 28.081.8 Болота и биосфера: Сборник материалов шестой Всероссийской научной школы...»

«Православие и современность. Электронная библиотека Епископ Иларион (Алфеев) Православное богословие на рубеже столетий По благословлению митрополита Сурожского Антония Содержание Предисловие Часть I. Богословское образование в прошлом и настоящем Проблемы и задачи русской православной духовной школы I. Учебные программы 1) Священное Писание 2) Догматическое богословие 3) Мистическое богословие 4) Аскетика 5) Патрология 6) Философия 7) Литургика 8) Гомилетика 9) Сравнительное богословие 10)...»

«ЛИТЕРАТУРНЫЕ СТРАНИЦЫ Наталья Вениаминовна Смирнова живет и работает в Москве, но исконно она наш, свердловско-екатеринбургский, житель, автор, филолог. — так и хочется продолжить в духе прежних традиций:.и настоящий [советский] человек с большой буквы. Об этом свидетельствует уже ее послужной список. В 1978 г. Н. Смирнова закончила филологи­ ческий факультет Уральского государственного университета им. А. М. Горького, в 1981— 1984 гг. училась здесь же в аспирантуре; ее научным руководителем...»

«357 Лекция XXI. ФОРМЫ ОРГАНИЗАЦИИ ПРОЦЕССА ОБУЧЕНИЯ СУЩНОСТЬ, ФУНКЦИИ, ПРИРОДА УЧЕБНОЙ ФОРМЫ, ОСНОВНЫЕ И ОБЩИЕ ЭЛЕМЕНТЫ ЕЕ СТРУКТУРЫ Форма обучения представляет собой целенаправленную, четко организованную, содержательно насыщенную и методически оснащенную систему познавательного и воспитательного общения, взаимодействия, отношений учителя и учащихся. Результатом такого взаимодействия является профессиональное совершенствование учителя, усвоение детьми знаний, умений и навыков, развитие их...»

«Белавин А. А., Кулаков А. Г., Усманов Р. А. Лекции по теоретической физике 2-е издание, исправленное и дополненное Москва Издательство МЦНМО 2001 УДК 530 Издание осущствлено при поддержке РФФИ (издательский проект № 00–02–30001). ББК 22.3 Б43 Р И Белавин А. А., Кулаков А. Г., Усманов Р. А. Б43 Лекции по теоретической физике— 2-е изд., испр. и доп.— М.: МЦНМО, 2001.— 224 с.: ил. ISBN 5-900916-91-X Книга написана на основе курса лекций, в течении ряда лет прочитанных в Независимом московском...»

«Цена Кокосового Ореха Рассказ О.Л. Кинга Цена Кокосового Ореха Рассказ О.Л. Кинга Миссионерская Проповедь 1890-х Предисловие к Переизданию Маленькая книга Цена Кокосового Ореха попала мне в руки несколько лет назад. Эта книга сразу же нашла уютное местечко в моем сердце и стала темой моих размышлений. Всегда осознавая значение незначимого на первый взгляд, я понимал, что это маленькое свидетельство возвещает эту истину. Эта правдивая история рассказывает о великой способности нашего Бога брать...»

«РОССИЙСКАЯ АКАДЕМИЯ НАУК ДАЛЬНЕВОСТОЧНОЕ ОТДЕЛЕНИЕ ИНСТИТУТ ВОДНЫХ И ЭКОЛОГИЧЕСКИХ ПРОБЛЕМ Н.А. Нарбут Экологические проблемы региона Хабаровский край КУРС ЛЕКЦИЙ Работа выполнена при финансовой поддержке гранта губернатора Хабаровского края № 46/12 от 27.10. 2005. Хабаровск 2006 УДК 504. 06(571.62) Нарбут Н.А. Экологические проблемы региона: Хабаровский край: Курс лекций. Хабаровск: ИВЭП ДВО РАН, 2006. 129 с. Представлены региональные аспекты формирования экологических проблем. Раскрываются...»

«Биологический факультет (Специальность биофизика) Факультет биоинженерии и биоинформатики 2006/2007 Общая и неорганическая химия ЛЕКЦИИ В.В.Загорский Лекция 2. Основныепонятия химии. Химическая эволюция материи Основные понятия химии Химия Д.И.Менделеев [1]: Ближайший предмет химии составляет изучение однородных веществ, из сложения которых составлены все тела мира, превращений их друг в друга и явлений, сопровождающих такие превращения. Комплект определений из Химической энциклопедии [2]:...»

«ЦИКЛ ОБУЧАЮЩИХ СЕМИНАРОВ МОРЕХОДКА МОРЕХОДКА Часть первая • Введение в мир круизов • Жизнь на борту • Тонкости продаж круизов Часть вторая • Круизы PAC GROUP • Классические круизы MSC CRUISES • Работа с сайтом www.gocruise.ru Часть третья • Введение в речные круизы по Европе • Речные круизы PAC GROUP ВВЕДЕНИЕ В МИР КРУИЗОВ ВВЕДЕНИЕ В МИР КРУИЗОВ НА ЧТО ПОХОЖИ КРУИЗЫ? НА ЭКСКУРСИОННЫЙ ТУР: - Насыщенный маршрут тура - Большой выбор...»

«Лекция 3. Информационные системы управления предприятием 1. Понятие эффективного управления ИТ. Черты предприятий, осуществляющих эффективное управление ИТ: четко представляют стратегии бизнеса и роль ИТ в их реализации, ведут учет средств, затрачиваемых на ИТ, распределяют ответственность за организационные изменения, отличаются активностью вырабатывания набора управления ИТ. Эффект от использования аналитических систем обусловлен следующими факторами: – сокращение разрыва между аналитиком и...»

«Лекция 1 1. Введение в курс До изучения курса Физика ядра и частиц знания студентов ограничивались двумя типами фундаментальных взаимодействий: электромагнитным и гравитационным. В этом курсе добавятся остальные два – сильное (его проявлением является межнуклонное или ядерное взаимодействие) и слабое. Мы ощущаем их лишь апосредовано. Без них мир бы совершенно другим. Солнце и звезды не могли бы существовать даже без слабого взаимодействия. Основное отличие данного раздела общего курса физики от...»

«№1 (11) /февраль–март/ 2011 с т р. 5 4 с т р. 1 8 с т р. 5 8 с т р. 6 2 с т р. 3 6 с т р. 6 6 с т р. 2 4 с т р. 4 2 с т р. 2 0 с т р. 3 0 №1 (11) /февраль–март/ 2011 АРХИТЕКТУРА ОЛЕГ УКРАЇНА ДОЛЖНА БЫТЬ МАЄ ОБНАЖЕННОЙ ТАЛАНТ лицо с обложки 1 СЕКСУАЛЬНАЯ АРХИТЕКТУРА ФАБИО НОВЕМБРЕ, ЛЕКЦИЯ О ЛИЧНОМ УСПЕХЕ Фабио Новембре (Fabio Novembre) – итальянский архитектор и дизайнер, философпровокатор, поэтичная натура, человек, который уверен в том, что любовь движет миром. По его собственным словам, с...»

«АННОТАЦИИ дисциплин и практик Направление 080200.68 –Менеджмент Подготовка к научно-исследовательской деятельности по программе - Маркетинг Квалификация (степень) выпускника - магистр Срок освоения ООП - 2 года А_080200.68_2_о_п_ФЭУ АННОТАЦИЯ примерной программы дисциплины Современные проблемы менеджмента Цель дисциплины Современные проблемы менеджмента – вооружить магистранта комплексом знаний, необходимых ему в самостоятельном ориентировании на практике и принятии оптимальных управленческих...»

«МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования Тверской государственный университет УТВЕРЖДАЮ Декан биологического факультета С.М. Дементьева 2012. УЧЕБНО-МЕТОДИЧЕСКИЙ КОМПЛЕКС по дисциплине ИММУНОЛОГИЯ для студентов 4 курса очной формы обучения специальность 020201 БИОЛОГИЯ Обсуждено на заседании кафедры Составитель: биомедицины _ 2012 г. К.б.н. доцент. Протокол № Полякова Н.Н. Зав. кафедрой _А.Я. Рыжов...»

«go Никитин Б.П., Никитина Л.А. Резервы здоровья наших детей Никитин Б.П., Никитина Л.А. Резервы здоровья наших детей. - М.: Физкультура и спорт, 1990. - 221 с. СОДЕРЖАНИЕ От редактора. Предисловие. Часть I. Мы и наши дети. Наша семья Главная забота - здоровье Физкультура с пеленок и. даже раньше Малыш и те, кто с ним рядом. Движение, движение, движение Способный ребенок не дар природы И трудовые обязанности И человеческие отношения Волшебная сила искусства Часть II. Резервы здоровья наших...»









 
2014 www.konferenciya.seluk.ru - «Бесплатная электронная библиотека - Конференции, лекции»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.