Сетевые проблемы в российских компьютерных журналах
Категория реферата: Рефераты по информатике, программированию
Теги реферата: реферат здания, культурология как наука
Добавил(а) на сайт: Romanov.
Предыдущая страница реферата | 1 2 3 4 | Следующая страница реферата
Стремясь объяснить это явление, автор не останавливается на самой очевидной причине – языковом барьере, – хотя и не отметает её полностью. Более важным ему представляется различие моделей блога в русскоязычном и англоязычном сегментах LiveJournal. Средний англоязычный блог ориентирован на аудиторию, ограниченную близкими друзьями владельца, русскоязычный – на аудиторию, которую составляют люди, в большинстве своём не знакомые владельцу. «Соответственно, и манера ведения журналов отличается от повседневных постов в частные дневнички. Самые известные и популярные журналы в ЖЖ принадлежат писателям, журналистам, политическим активистам и обозревателям, так называемым тысячникам». Автор замечает, что количество «тысячников» (пользователей, которых добавили в друзья тысяча и больше пользователей) в русскоязычным сегменте LiveJournal в 19 раз больше, чем в англоязычном, а «десятитысячников» – в три раза (трое против одного).
Более того, исследователи обнаружили, что русскоязычный LiveJournal имеет самоподобную структуру. Автор объясняет это так: «Подобного рода сетевая геометрия была объяснена моделью копирования ссылок при росте сети. Суть этого механизма применительно к ЖЖ заключается в том, что новичок в блогосфере френдит других пользователей, исходя в основном из их популярности. При этом вероятность френдования того или иного участника прямо пропорциональна количеству уже зафрендивших его пользователей. Популярный пользователь со временем становится еще популярнее, или, как это иногда называют, «деньги идут к деньгам»». В то же время при исследовании англоязычного сегмента ничего подобного обнаружено не было. Автор отмечает ещё одну характерную черту русскоязычного LiveJournal – стремление пользователей к взаимному добавлению в друзья: «Исследование показало, что в среднем 80% дружеских связей в LJ взаимны... количество друзей у среднестатистического представителя ЖЖ в два раза больше, чем у обитателя остальной части LJ. Если там каждый пользователь обладает в среднем шестнадцатью друзьями, то для ЖЖ этот показатель составляет 32. Еще заметнее это по размеру второго круга пользователя ЖЖ, то есть по «друзьям друзей». В среднем по сети размер второго круга - 540 пользователей, но в ЖЖ он порядка 3000. Таким образом, ЖЖ представляет собой плотно переплетённый клубок, в котором типичное расстояние между двумя журналами – 4,3 шага».
Ещё одна важная проблема, которую освещает автор, – механизмы передачи информации и формирования мнений в сети LiveJournal. Простое распространение информации путём копирования (к примеру, так называемые «флэш-мобы») может происходить практически мгновенно: «Основной механизм флэш-моба – копирование чужих записей себе в журнал – по своему принципу ничем не отличается от копирования друзей, описанного ранее, и ЖЖ вновь оказывается уникальным в своей способности распространять повторяющуюся информацию благодаря самоподобной структуре». Однако формирование мнений в сообществе происходит по гораздо более сложным законам. В результате моделирования динамики мнений (также подробнейшим образом описанного в статье) были получены неожиданные данные: «В то время как структура социальной сети англоязычного LJ подавляет иррациональное мнение своих «заблуждающихся» (т. е. пользователей, внезапно меняющих своё мнение на противоположное – Л. Б.) и сохраняет устойчиво нейтральное мнение, ЖЖ подвержен относительно резким отклонениям от средневзвешенного в обе стороны. <…> Причиной такого поведения является все тот же «толстый хвост» [20] – слишком много чрезвычайно популярных пользователей. Достаточно одному из них иррационально изменить собственное мнение, и за ним потянется большое количество людей, которые, в свою очередь, потянут других, зафрендивших уже их, и т. д. И хотя виновник недоразумения вскоре вернется к более взвешенному мнению, эффект уже будет достигнут – среднее мнение сообщества изменится и ЖЖ удалится от остального LJ». «Отрыв» русскоязычного сегмента от англоязычного автор объясняет немногочисленностью связей между ними.
Выводы, которые делает автор на данном материале, неожиданно глобальны: «Во-первых, как ни печально это осознавать, но даже абсолютное внимание к мнениям окружающих и готовность адаптировать свое мнение к мнению большинства не спасает нас от глобального недопонимания, если общество разобщено, как разделены ЖЖ и LJ. Присутствие людей, обладающих значительным влиянием на общественное мнение, выступает дестабилизирующим фактором и углубляет разрыв, даже если эти люди не имеют злого умысла». С точки зрения журналиста, «тысячники» подавляют оригинальные мнения менее популярных пользователей, разделяя весь сегмент на «пишущее меньшинство и читающее большинство». Финальный вывод статьи поражает своей всеохватностью: «Нам свойственно винить правительства, государственные границы, разницу уровней жизни в недопонимании других народов, однако в виртуальной среде, где все равны и отсутствуют межгосударственные границы и диктат политических систем, мы продолжаем привычно обособляться, формируя свой субкультурный анклав. При этом, как в случае ЖЖ, сама собой выстраивается иерархическая система, где некое меньшинство «избранных» наделяется несоразмерно большим влиянием, степень которого даже трудно вообразить. Во благо или во вред подобные особенности – вопрос с долгой историей, так и не получивший точного ответа».
Следует, однако, заметить, что автор не принял во внимание одного важного обстоятельства: среди влиятельных западных блоггеров, писателей, журналистов, исследователей – то есть, потенциальных «тысячников» и «десятитысячников» – платформа LiveJournal не пользуется популярностью. Они предпочитают вести блоги на собственных сайтах – к примеру, блог Тима О’Рейли располагается по адресу: http://radar.oreilly.com/tim/. И при всём желании эти дневники не могли бы быть включены в сеть LiveJournal. В этой связи глобальные выводы, сделанные автором, выглядят поспешными, а попытка связать особенности структуры русскоязычного сегмента LiveJournal с особенностями национального характера – малообоснованной.
Также затрагивает тему социальных сетей большой обзор Виктора Шепелева «Обалдеть, завтра дайте три!» (№ 1-2, 20.01.08), в котором не только подведён итог развития Веба в 2007 году, но и сделана попытка проследить тенденции его изменения в будущем, несмотря на то, что автор в заключении замечает: «У меня нет намерения подводить какие бы то ни было итоги». Материал посвящён различным концепциям Веба 3.0, выдвинутым исследователями. Несмотря на то, что автор открыто предупреждает о «поверхностности» своего обзора и избегает делать генеральные выводы, его краткие промежуточные заключения дают понять, как может в дальнейшем развиваться Веб. Повествование чрезвычайно эмоционально, изобилует имплицитными авторскими оценками. В частности, позицию Тима О’Рейли в споре о Вебе 3.0 автор передаёт так: «Хотя ещё в самом начале этой вакханалии один из ее главных виновников – Тим-«Я-Придумал-Веб-2.0» О’Рейли – писал им что-то вроде: Доконд пан иде? Опаментайсе, пан! Web 2.0 появился на развалинах Первого, надутого пузырем и лопнувшего. Да и не я (в смысле не он, О’Рейли. – В.Ш.) его изобрел. Я всего лишь назвал так конференцию, на которой обсуждались примеры компаний, уже успешных, уже выживших и нашедших то новое, чему нам только предстояло придумать название!».
Автор использует довольно наглядную метафору хода рассуждений исследователей о новой смене поколений Веба: «А ведь предсказать грядущую смену тогда, когда и сегодняшнее еще полно сил, – так сладко, так почётно. Да и, чего греха таить, так несложно… так соблазнительно найти воображаемую прямую, соединяющую Первый со Вторым, – и предположить, что и Третий будет лежать на той же прямой». И несмотря на ядовитую иронию по отношению к попыткам предсказать будущее Веба, автор замечает: «А всё же пронаблюдать, в какие стороны тянут эту гипотетическую прямую гиганты рынка и простые смертные, – весьма любопытно».
Обзор разбит на главки, каждая из которых посвящена одному явлению, развитие которого может положить начало новому поколению Веба. Первое из таких явлений – бум социальных сетей: «этой осенью ни блоги, ни Википедия, ни даже внесловесный видеоконтент не были такой горячей темой, как «голые социальные сети» – из тех, где можно лишь установить/восстановить отношения». Автор отмечает, что социальные сети были созданы задолго до начала бума, но именно в 2007 году произошёл их скачкообразный рост. Одним из показателей качественного сдвига в их развитии, по мнению автора, являются попытки Брэда Фитцпатрика создать платформу для объединения различных социальных сетей. Но вывод, по мнению автора, делать ещё рано: «А вот что получится из взлета социальных сетей и их объединения – смотрите в следующих сериях нашей программы, то есть в наступившем году».
Следующее явление, которое рассматривает автор – избыток контента, создаваемого пользователями, и как следствие – необходимость более эффективной организации информации. Здесь выделяются два антагонистических подхода: Тим Бернерс-Ли делает ставку на семантическую разметку документов, Джейсон Калаканис и Алексей «Лёха» Андреев – на посредников, организующих взаимодействие пользователей и контента. В данном случае автор берёт на себя смелость предположить, какая модель может победить: «И тенденции, увиденные в этом году, – проблемы Википедии и ее отдаление от изначальной модели «правь-кто-хочет» и переход к модели с редакторами; и шум вокруг нового проекта Ларри Сэнгера Citizendium; и увеличение популярности позаброшенных было сервисов «Вопрос-ответ» (скажем, гугловского – закрытого на английском и немедленно открытого на русском) – все это намекает на то, что в вопросе организации информации пользователи проголосуют за Лёху, а не за сэра Тимоти Бернерса-Ли». Следом автор поднимает тему веб-приложений как возможную основу нового поколения Веба: «Есть еще красивая с точки зрения гика метафора: Первый был read-only (только для чтения), Второй - read-write (права на чтение-запись), значит, Третий должен быть executable (исполнимым). <…> И таки да, веб-приложения завоевывают все больше места под солнцем. <…> Быть может, завтра, с комплектом приложений для большинства «стандартных» задач, в равной мере превосходно работающим на телефоне-КПК-ноуте-десктопе, мы будем смотреть на пользователей «десктопного старья» как на безумных ретроградов?» В качестве других возможных оснований для выделения нового поколения Веба автор также выделяет распространение аудио- и видеоинформации в Сети (ролики на Youtube, подкасты [21]) и осознание пользователями ценности своей работы по генерации контента в Интернете.
В заключении автор демонстративно отказывается делать общий вывод, однако композицию материала всё же закольцовывает: «…количество «прямых», проведённых через точки 1 и 2 и (гипотетически) упирающихся в точку 3, куда больше, чем рассмотрено в данном поверхностном обзоре, и чёрт его знает, какая из них определит нынешний год. И тем еще более, что концепция прямой в предсказании будущего выглядит как-то излишне уныло».
Журнал «Chip», несмотря на свою практическую направленность, публикует несколько значительных статей, посвященных содержательной стороне Интернета, интересных не только в практическом, но и в теоретическом плане. Статья Евгении Власовой «Осмысленная Сеть» (№8, август 2006) начинается с заявления: «Семантическая паутина, или Semantic Web обсуждается в компьютерных изданиях гораздо реже, чем Web 2.0, при этом есть все предпосылки к тому, что разработки в области семантики произведут революцию в Интернете, по значимости сравнимую с изобретением Сети», а заканчивается противоречащим ему утверждением: «Семантический веб — это эволюция Интернета, и вряд ли революционные методы здесь уместны». Несмотря на то, что автор так и не определяется, революционные или эволюционные методы приличествуют семантическому вебу, сущность явления в статье раскрыта подробно и четко: «Что же понимается под «осмысленной» Паутиной? Фактически это концепция Сети, разрабатываемая организацией W3C (www.w3.org), в которой каждый ресурс снабжается описанием, понятным компьютеру. То есть тексты, размещенные в Интернете, обретают смысл не только для человека, но и машины». Автор приводит примеры некоторых сайтов, уже реализовавших данную концепцию, рассказывает о новейших поисковых механизмах – таких как «Nigma» или «Hakia» – осуществляющих семантический поиск, о расширении для браузера Firefox, которое позволяет собирать RDF-метки. Однако автор отмечает, столь перспективная идея реализовывается весьма неспешно: «Идея Семантической паутины зародилась в недрах организации W3C в 90-х годах прошлого века. В мире компьютерных технологий за десять лет успевает смениться несколько эпох, но до сих пор семантический веб не превратился в доминирующую идеологию, равно как никто не сумел доказать несостоятельность этого проекта. Разработки в семантическом ключе медленно, но верно продвигаются вперед, а Всемирная паутина становится все более «осмысленной» и понятной для компьютеров». Тем не менее, идея семантического веба вызывает у автора энтузиазм, пусть и сдержанный: «Появление новых семантических веб-приложений, все более обращенных к конечным пользователям, внушает оптимизм и позволяет надеяться, что мы на своем веку успеем вкусить всех благ, которые сулит Сеть, наполненная смыслом».
Статья Родиона Насакина «WWW вместо Windows» (№9; сентябрь 2006) посвящена одному из ответвлений Web 2.0 – онлайновым операционным системам (ООС). Несмотря на то, что статья носит практический характер, и основная ее часть посвящена сравнению функциональности наиболее популярных ООС, автор рассуждает и о самом феномене, который еще пока недостаточно серьезно развит: «Впрочем, несмотря на то, что все больше приложений, в том числе и аналоги крупных офисных пакетов, доступны из Сети, до полноценных ОС с удаленным доступом прогресс пока не дошел. <…> Однако в последнее время появляются уже достаточно серьезные продукты, которые существенно подняли планку требований к начинаниям, позиционируемым в таком качестве». Одна из главных проблем, волнующих автора – безопасность пользователя, гарантий которой при использовании ООС не сможет дать никто: «Один из спорных аспектов онлайновых ОС заключается в принципе хранения больших объемов информации, в том числе конфиденциального характера, на удаленных серверах. В отличие от применения собственного винчестера, пользователь не сможет убедиться ни в надежности аппаратно-программной защиты, ни в честности сотрудников, отвечающих за приватность клиентов. <…> А ведь кроме криминального хищения информации есть еще и правоохранительные органы со спецслужбами, которые очень часто обращаются за клиентскими данными к компаниям, работающим в Интернете». По мнению автора, такие опасения могут перечеркнуть всю комфортность работы с ООС.
Автор не забывает и о «родовом» явлении: «Все чаще сетевые ОС рассматриваются в качестве апофеоза Web 2.0; возможно, что время множества мелких сервисов, ориентированных на конкретные узкоспециализированные задачи, скоро пройдет. Онлайновые ОС должны стать основой для группировки таких проектов, что сделает их использование гораздо более удобным». По мнению автора, закономерным было бы появление ООС от «Google», поскольку для этого нужно просто объединить ее существующие приложения, однако компания «Microsoft», уже разрабатывающая проект «Windows Live», вполне может обогнать «Google».
Статья Андрея Гришина «Один для всех» (№10; октябрь 2006) посвящена системе аутентификации OpenID, к которой обращались и авторы публикаций, рассмотренных выше. Автор обращает внимание на все возможные стороны проблемы OpenID – от причин возникновения до возможностей злоупотребления. Автор не видит лучшего выхода из проблемы запоминания логинов и паролей, чем хранение единого набора аутентификаторов для всех сервисов на удаленном сервере: «Идеалом был бы единый сервис аутентификации для абсолютно всех веб-служб, вне зависимости от того, кому она принадлежит. Проект OpenID занимается именно этим – когда данный сервис станет стандартом, пользователи забудут про частый ввод логинов и паролей». Еще одно неоспоримое достоинство системы в глазах автора – ее архитектура. Аутентификаторы хранятся на распределенных серверах, что выгодно отличает эту систему от централизованных систем (таких, как «Windows LiveID»): «OpenID не называлась бы открытой системой, если бы в ней хранились данные на едином сервере, который мог бы кем-то контролироваться. Логины и пароли пользователя могут находится на абсолютно любом веб-сервере, поддерживающем OpenID – в зависимости от выбора пользователя». Более того, при наличии возможности пользователь может превратить собственный сервер в сервер OpenID. Однако автор отмечает, что в достоинствах системы кроется и корень возможных проблем. Наличие возможности выбора сервера возлагает на пользователя часть ответственности за сохранность аутентификационных данных, а возможность создания собственного сервера – к невозможности прекратить поток спама путем бана: «Конечно, хорошие серверы OpenID не позволят зарегистрировать тысячу ников с последовательно возрастающими номерами. Но беда в том, что спамер может установить собственный сервер OpenID. Такова обратная сторона свободы». И, несмотря на очевидные недостатки, лежащие в основе системы, автор отмечает ее успешное развитие и относится к ней с выраженным энтузиазмом: «Хочется надеяться, что в будущем, когда все основные проблемы автоматической авторизации будут решены, OpenID (может быть, и его наследник) станет поддерживаться на каждом сайте. В этом случае облик Интернета станет абсолютно другим».
Статья «Сеть вместо софта» (№12; декабрь 2006) посвящена сетевым сервисам, заменяющим настольные приложения, однако в первую очередь ценна тем, что дает читателю общее понятие о концепции Web 2.0. Анонимный автор отмечает: « Как известно, до сих пор не существует четкого определения понятия Web 2.0. <…> Дело в том, что Web 2.0 – это не заново изобретенный принцип World Wide Web, а нечто более широкое, объединяющее многие течения». Автор отмечает следующие общие принципы, объединяющие сервисы Web 2.0: замена приложения службой, совместная работа пользователей над документами, фолксономия, «бесконечная бета», объясняет понятие long tail. Основная часть статьи посвящена описанию работы с веб-приложениями. Автор относится к их появлению с воодушевлением, даже восторженно: «Благодаря Web 2.0 они [пользователи] могут сегодня бесплатно пользоваться приложениям, которые еще совсем недавно стоили довольно дорого – например, офисными программами для создания текстов или таблиц». Однако в статье нет ни слова о том, какие опасности могут таить веб-приложения. Не упоминает автор и о том, что постоянная работа с данными приложениями доступна немногим пользователям, в квартиры которых проведен широкополосный Интернет.
Как ни странно, именно журнал «Chip», имеющий практическую направленность, публикует обширный материал, посвящённый социальным новостным сервисам, в котором сделана попытка выявления различных моделей их наполнения и функционирования. Обзор Надежды Баловсяк «Социальные новости» (№2, февраль 2007) посвящён новостным сайтам, содержание которых формирует сообщество пользователей, а не группа редакторов. Кроме собственно обзора, в материал включено мини-интервью с экспертом – разработчиком одного из подобных проектов, Виктором Захарченко.
Автор прослеживает развитие сервисов социальных новостей от коллективных блогов и дайджестов русскоязычной блогосферы (которые могли формироваться вручную, редакторами сервиса, или с помощью RSS-агрегации), однако современные русскоязычные сайты данного типа называет «клонами Digg.com» – несмотря на то, что автор раскрывает различия в моделях их функционирования, хотя и не акцентирует на этом внимания читателя. При этом последнюю главку обзора автор начинает словами: «Таким образом, на сегодняшний день можно выделить несколько моделей сервисов», хотя из дальнейшего повествования становится понятно, что в данном случае автор имеет в виду всё те же сервисы социальных новостей, блоги и традиционные новостные ресурсы. С точки зрения автора, никакой конкуренции между ними нет, и, тем не менее, он ставит вопрос об их жизнеспособности. При этом никакого серьёзного анализа ситуации он не предлагает, а ответ на вопрос тривиален и, более того, противоречит тезису об отсутствии конкуренции между разными типами сервисов: «Ответить на него можно будет со временем, но очевидно одно: популярными будут те сервисы, которые предложат пользователям новое решение, объединяющее эти подходы». Описанные противоречия представляются допущенными непреднамеренно, однако они в значительной степени снижают доверие читателя к обзору.
В 2007 году журнал «Chip» начал уделять пристальное внимание безопасности работы в Сети. Наиболее ярким свидетельством тому является запуск продолжающейся серии публикаций Валентина Плетцнера «CSI: Место преступления – Интернет». Определить их жанровую принадлежность затруднительно. Как дизайн соответствующих полос, так и композиция материала и манера изложения служат для стилизации под американский телесериал «C.S.I.: Место преступления». Каждый из материалов выстроен как детективный рассказ о расследовании преступления в сфере информационной безопасности, жертвой которого стал читатель «Chip», однако в материале нет указаний ни на то, что он основан на реальных событиях, ни на то, что все персонажи и события являются вымышленными. Автор подробно описывает весь процесс раскрытия преступления – от поступления жалобы до нахождения преступника (или до окончательной потери следа). Обязательно воссоздаётся механизм хакерской атаки, приводятся комментарии сторонних экспертов. Каждый материал завершается небольшим советом, как не стать жертвой такого преступления в будущем.
Рассмотрим для примера 5 часть этого «сериала» (№ 8, август 2007). Его героиней является девушка Людмила, бывший возлюбленный которой инфицировал систему, установленную на её компьютере, и получил возможность перехватывать её электронную почту и выводить её из себя упрёками. Работа криминалистов описана детально, однако недостаточно подробно для того, чтобы читатель смог повторить их действия. Кроме того, постоянно подчёркивается, что для расследования хакерских атак необходимы профессиональные навыки и инструменты: «С помощью профессионального дизассемблера IDA компании DataRescue бинарный код трояна [22] преобразуется в язык ассемблера. После этого профессионалы могут без труда прочесть код и безошибочно определить функции вредителя». В то же время советы по профилактике подобных происшествий даются скупо, в двух предложениях: «Мы советуем ей осторожнее обращаться с незнакомыми файлами и электронными письмами, а также регулярно скачивать обновления. <…> Любые другие меры могут осложнить для непрофессионала работу на ПК». При этом приглашённый эксперт Евгений Касперский [23] замечает: «Хакерские атаки становятся всё более изощрёнными и прицельными. <…> Но это создаёт проблемы скорее для фирм, нежели для частных пользователей». И сразу же после материала следует врезка: «www.viruslist.com/weblog: блог для экспертов, организованный Касперским, рассказывает о том, что разгул вредоносных программ становится повседневным делом». То есть, автор одновременно и успокаивает читателя, и заставляет его встревожиться. В связи с этим любопытным представляется вопрос о цели данного материала. Такие приёмы характерны для материалов, главная функция которых – рекламная, однако ни имена криминалистов, ни организация, которую они представляют, не были названы. Таким образом, представляется, что данный приём употреблён случайно, неосознанно, и данный текст можно назвать развлекательно-просветительским.
Среди других публикаций, посвящённых компьютерной безопасности, следует выделить статью «По следам Интернет-мафии» (№ 2, февраль 2008). Написана она в том же стиле, что и серия «CSI: Место преступления – Интернет», однако в данном случае имя автора не указано, и сделать какие-либо выводы об авторстве материала невозможно. Статья целиком посвящена описанию методов работы преступников в Интернете и выстроена нестандартно: анонимный автор ведёт повествование от лица коллектива «тайных агентов», которые проникли в круг Интернет-мафиози и рассказывают читателю об используемых ими криминальных схемах. Автор останавливается подробно на нескольких видах преступлений в Интернете: фишинг-атаках [24], использовании троянских программ, краже номеров ICQ, продаже трафика и распределённых атаках типа «отказ от обслуживания» [25]. Процесс «вступления в контакт» с хакерами и покупки троянской программы у одного из них описан досконально. Автор включает в материал рекламу «услуг» Интернет-преступников, цены на вредоносные программы, подробные алгоритмы совершения преступлений (описание дублируется на иллюстрации-схеме), методику сохранения хакерами анонимности, а главное – уделяет внимание проблеме вовлечения сторонних людей в криминальную деятельность в Интернете. В статье упоминаются два вида деятельности, для которых обычно обманным путём привлекаются законопослушные люди: перевод денег, похищенных в ходе фишинг-атаки, на заграничный счёт хакера, и добровольное встраивание в собственную веб-страницу фрейма [26], который якобы обеспечивает прибыль от каждого посетителя. К сожалению, упоминаются они мимоходом, на них не заостряется внимание. Разоблачение предложений преступников производится сжато, в двух-трёх фразах, и автор не даёт никаких рекомендаций по распознанию хакерских предложений: «На самом деле эта затея рискованная и малоприбыльная. За 1000 посетителей в день хозяин сайта получает всего 5 рублей. При этом фрейм, как правило, содержит вредоносное ПО или рекламу, вопреки уверениям продавца, что его предложение легально и совершенно безобидно». То есть, автор отклоняется от общей практической направленности журнала, предпочитая давать теоретические сведения, безусловно интересные и важные, но не давая тех сведений, которые можно применить на практике.
Повествование откровенно беллетризовано: «Словно тайные агенты, мы проникаем в самые тёмные углы Интернета, где вершит свои дела организованная преступность». Автор активно обращается к эмоциям читателя, будто бы специально запугивая его: «Организованная преступность предлагает свои услуги открыто, не боясь ни государства, ни частных охранных фирм. И бояться ей действительно нечего: редкие проколы для неё – как с гуся вода»; «Мафия не боится ничего, а Интернет-мафия особенно». Среди подобных «голословных» утверждений встречаются и обоснованные, которые могут объяснить общий тревожный тон статьи: «Программы, с которыми мы столкнулись, имеют одну общую черту: они становятся всё более профессиональными и серьёзными. Даже экспертам иногда бывает трудно отличить «хорошее» приложение от зловредного». В статье встречаются и курьёзные примеры проявления авторской эмоциональности. К примеру, описывая фиктивную покупку троянской программы, автор негодует по поводу хитрости и жадности хакера: «Троян уже несколько устарел – хакеру это известно, нам тоже. Торгуемся на ломаном английском. Изменённая криптером сигнатура – вот и всё, что в трояне нового. За это хакер просит 300 WMZ, то есть долларов». Или иронически замечает: «Сомнительные или криминальные веб-сайты почти не выдают себя – разве что парой мелочей. Например, на многих из них отсутствует информация об авторах, в качестве контактов указаны адреса ICQ, а английский язык напоминает перевод в духе Babelfish [27]».
Тем не менее, несмотря на уход от практического направления, автор статьи не приходит к серьёзному публицистическому анализу явления Интернет-преступности. Автор, завершая статью, делает малоубедительную попытку ответить на вопрос, кто стоит за Интернет-мафией: «Кто проворачивает все эти махинации в Интернете – несомненно, самый интересный вопрос. Даже эксперты, которые занимаются данной темой уже несколько лет, не смогли дать удовлетворительного ответа. Так, на конференции по информационной безопасности Black Hat один хакер выразил мнение, что это дело рук русской мафии. Другие придерживаются теории заговора, что якобы за этим стоит бывший сотрудник КГБ. На вопрос, не кроются ли за этим всем какие-нибудь известные организации, мы услышали только: «Не будем обобщать»». Обе версии, предполагающие исключительно «русский след», больше похожи на догадки. Собственного вывода автор не делает, однако сделать его на приведённом в статье материале и невозможно.
Таким образом, можно сделать вывод, что в обоих случаях при освещении проблем безопасности в Интернете авторы журнала «Chip» дают минимум рекомендаций читателям и избегают серьёзного публицистического анализа данных проблем, предпочитая преподносить их в развлекательно-просветительском ключе.
Что касается основных направлений обсуждения проблем функционирования Сети в специализированной прессе в целом, то тут следует выделить следующие аспекты:
• собственно содержательный (проблема определения понятия Web 2.0, проблема качества контента в wiki-системах, проблема эффективной организации информации в условиях её избытка);
Рекомендуем скачать другие рефераты по теме: доклад по биологии, реферат цена.
Предыдущая страница реферата | 1 2 3 4 | Следующая страница реферата