Аннотации номера

ОПТИЧЕСКИЕ СИСТЕМЫ И ТЕХНОЛОГИИ

1
Введение. Аэрофотооборудование и космические системы дистанционного зондирования поверхности Земли позволяют решать разнообразные задачи в условиях быстро изменяющихся оптико-физических параметров и динамики полета. Несмотря на свои преимущества, аэрофотографирование имеет ряд недостатков, которые ограничивают его применение в реальных условиях. К таким недостаткам можно отвести необходимость высокого уровня технологии процесса получения аэрофотоснимка и сравнительно большой срок обработки фотоматериалов в условиях быстро меняющихся техногенных процессов в зоне мониторинга. В данной работе рассмотрена актуальная задача создания многоспектральной оптико-электронной системы (комплекса) дистанционного зондирования Земли. Разработанная система позволяет получать информацию о характеристиках поверхности Земли преимущественно в видимом и инфракрасном диапазонах спектра. Основным достоинством мультиспектральных оптических и оптико-электронных комплексов является возможность работы в любое время суток и время года. Описан принцип построения авиационных интегрированных многоспектральных оптико-электронных систем, работающих на высоте до стратосферы, и основные его компоненты. Показаны возможности и перспективы применения таких систем в различных областях, включая мониторинг и управление. Метод. Предложена структурно-функциональная схема устройства, включающая независимые каналы сбора, хранения и передачи информации. Функциональное назначение экспериментального образца — поиск и обнаружение объектов ниже облаков в инфракрасном диапазоне. Канал видимого диапазона выполняет функцию ориентации зрительного восприятия оператора в пространстве и получения изображения объекта. Для передачи собранной информации предусмотрен канал лазерной связи. Основные результаты. Исследования экспериментального образца авиационного двухканального оптико-электронного комплекса, конструктивно выполненного как комплексированная техническая система с независимыми каналами и работающая в видимой и инфракрасной областях спектра, показали высокую точность и эффективность работы системы. Точность работы системы стабилизации составила около 7·10–9 с–1, дальность действия в инфракрасном диапазоне спектра не менее 150 км, необходимое время экспозиции не более 2 с. Обсуждение. Результаты работы могут быть использованы для дальнейшего развития и усовершенствования многоспектральных оптико-электронных систем дистанционного зондирования Земли.
9
Пленки ZnO:Ag применяются в качестве фотопоглощающих слоев в плазмонных фотодетекторах. Применение лазерного излучения при изготовлении фотодетекторов позволяет управлять параметрами пика плазмонного резонанса и изменять диапазон спектральной чувствительности устройства. Известные исследования по лазерному воздействию на подобные фотопоглощающие пленки с наночастицами уделяют мало внимания эффекту дихроизма, возникающему в результате лазерного воздействия. При наличии дихроизма эффективность плазмонного фотодетектора зависит от поляризации детектируемого излучения. В работе исследован эффект дихроизма, возникающий в ZnO:Ag пленках при воздействии фемтосекундного лазерного излучения с длинами волн вблизи плазмонного резонанса наночастиц и вдали от него. Метод. Для получения эффекта дихроизма в пленках использовались лазерные импульсы с длиной волны вблизи плазмонного резонанса наночастиц (515 ± 5 нм) и вдали от него (1030 ± 5 нм). Применены импульсы с линейной поляризацией длительностью 224 ± 15 фс и частотой следования 200 кГц. Спектры пропускания линейно- поляризованного света с областями пленок ZnO:Ag, модифицированными лазерным излучением, получены с помощью микроскопа-спектрофотометра. Размер, концентрация, форма и расположение наночастиц в пленках, морфология поверхности пленок оксида цинка (ZnO) исследовались методами электронной микроскопии. Основные результаты. Показано, что лазерное излучение с длиной волны вблизи плазмонного резонанса наночастиц с плотностью энергии в импульсе выше 43 ± 0,5 мДж/см2, приводит к появлению в пленках эффекта дихроизма. Возникновение этого эффекта связано с переориентацией наночастиц. Лазерное воздействие приводит к переориентации исходного хаотичного расположения наночастиц в направление, параллельное вектору поляризации лазерного излучения. Наибольшее значение величины линейного дихроизма достигается в области длин волн плазмонного резонанса 515 ± 5 нм при плотности энергии излучения 66 ± 0,5 мДж/см2. Дальнейшее увеличение плотности энергии приводит к уменьшению дихроизма за счет возвращения хаотической ориентации. Воздействие излучения с длиной волны вдали от плазмонного резонанса 1030 ± 5 нм с эквивалентными плотностями энергии не приводит к переориентации наночастиц и, как следствие, изменение величины линейного дихроизма оказывается значительно ниже. Обсуждение. Согласно предложенной гипотезе отличия между результатами лазерного воздействия могут быть связаны с различными механизмами поглощения излучения в материале. Излучение с длиной волны 515 ± 5 нм поглощается наночастицами. В случае линейной поляризации излучения происходит ионизация наночастиц и их переориентация параллельно вектору поляризации. На длине волны 1030 ± 5 нм излучение поглощается матрицей ZnO. Это приводит к нагреву пленки, передаче тепла к наночастицам, в результате процесс переориентации наночастиц параллельно вектору поляризации затрудняется, а эффект дихроизма проявляется значительно меньше. Результаты проведенного исследования могут быть использованы при проектировании и изготовлении фотодетекторов за счет выявленной возможности смещать пик плазмонного резонанса наночастиц в фотопоглощающем слое фотодетектора. Управление эффектом дихроизма позволяет управлять диапазоном чувствительности детекторов.
23
Введение. Формирование полутоновых фотошаблонов является сложной технической задачей, которая в ряде случаев может быть решена за счет растрирования. Cуществующие работы в области прямой лазерной термохимической записи показывают возможности формирования локальных областей прозрачности в результате окисления тонких пленок металлов, но итоговый контраст коэффициента пропускания получаемой структуры оказывается сложно прогнозируемым в связи с комплексностью влияющих факторов. В настоящей работе предлагается экспериментальный подход к объединению методов полутоновой термохимической записи и фоторастрирования для создания структур с управляемой прозрачностью на пленках титана, которые могут составить основу для записи топологий растрированных фотошаблонов. Метод. В качестве образцов использованы тонкие (20–40 нм) пленки титана, воздействие на которые осуществлялось с помощью технологического комплекса «МиниМаркер-2» на базе волоконного иттербиевого лазера. Прямая запись сканирующим сфокусированным пучком выполнена с использованием встроенной системы гальванометрических сканаторов. Анализ оптических и геометрических характеристик записанных структур проведен с применением оптического микроскопа. Экспериментально определенные режимы записи подтверждены проведенным численно-аналитическим моделированием температурных режимов. Основные результаты. Показано, что формирование контрастных структур происходит в диапазонах плотностей мощности 15–140 МВт/м2 при сканировании со скоростями от 0,1 до 1 мм/с, а изменение контрастности структур достигается при плотностях мощности 50–90 МВт/м2. Контраст коэффициента пропускания записанных структур относительно исходного значения прозрачности пленки управляемо варьируется от 1 до 40 %. В ряде режимов выявлено формирование периодических структур с периодом порядка 0,71 мкм, приводящих к дифракционным эффектам, наблюдаемым в отраженном свете. Обсуждение. Получены теоретически смоделированные и экспериментально подтвержденные режимы записи структур при воздействии излучения наносекундной длительности. Показано, что варьирование параметров воздействия позволяет локализовать области окисления, что приводит к изменению контраста интенсивности проходящего света и позволяет создавать полутоновые растрированные изображения с заданными значениями градации серого в проходящем свете. Практическая значимость полученных результатов показана на примере записи оптического элемента типа полутонового растрированного фотошаблона с заданной геометрией и значениями контраста.

АВТОМАТИЧЕСКОЕ УПРАВЛЕНИЕ И РОБОТОТЕХНИКА

33
Введение. Рассмотрена задача прямого адаптивного управления с эталонной моделью линейными параметрически неопределенными системами с недоступным измерению вектором состояния. В целях адаптивной настройки параметров регулятора предлагается модификация градиентного алгоритма адаптации со сходимостью за конечное время. Модификация осуществляется путем периодического пересчета значений настраиваемых параметров с последующей подстановкой в качестве начальных условий на интеграторах стандартного градиентного алгоритма адаптации. Пересчет выполняется при обеспечении условия интервального возбуждения на основе предсказания динамики алгоритма адаптации, в результате точно идентифицируются параметры регулятора. Метод. Задача управления решается с помощью метода расширенной ошибки и метода непосредственной компенсации. Анализ замкнутой системы проводится на основе метода функций Ляпунова. Основные результаты. Предложена модификация градиентного алгоритма адаптации с ускоренной параметрической сходимостью за конечное время. Обсуждение. Модификация обеспечивает сходимость параметров при условии интервального возбуждения, которое является более слабым по отношению к условию неисчезающего возбуждения. Представленный алгоритм обладает чувствительностью к вариациям неизвестных параметров объекта и не требует в отличии от множества аналогичных решений повышения динамического порядка регулятора. Дополнительной особенностью нового алгоритма является возможность его использования в схемах как непрямого, так и прямого адаптивного управления.

КОМПЬЮТЕРНЫЕ СИСТЕМЫ И ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ

42
Введение. Развитие технологий искусственного интеллекта, в частности, больших языковых моделей (Large Learning Model, LLM), привело к изменениям во многих сферах жизни и деятельности человека. Информационная безопасность также претерпела существенные изменения. Тестирование на проникновение (пентест) позволяет оценить систему защиты на практике в «боевых» условиях. LLM могут вывести практический анализ защищенности на качественно новый уровень с точки зрения автоматизации и возможности генерации нестандартных шаблонов атаки. Представленный в работе систематический обзор направлен на определение уже известных способов применения LLM в кибербезопасности, а также на выявление «белых пятен» в развитии технологии. Метод. Отбор исследуемых научных работ осуществлялся в соответствии с многоступенчатым руководством PRISMA на основании анализа аннотаций и ключевых слов публикаций. Полученная выборка была дополнена с помощью метода «снежного кома» и ручного поиска статей. Суммарное количество публикаций составило 50 работ с января 2023 г. по март 2024 г. Основные результаты. В работе выполнен анализ способов применения LLM в области информационной безопасности (поддержка целеполагания и принятия решений, автоматизация пентеста, анализ защищенности моделей LLM и программного кода). Определены архитектуры LLM (GPT-4, GPT-3.5, Bard, LLaMA, LLaMA 2, BERT, Mixtral 8×7B Instruct, FLAN, Bloom) и программные решения на базе LLM (GAIL-PT, AutoAttacker, NetSecGame, Cyber Sentinel, Microsoft Counterfit, GARD project, GPTFUZZER, VuRLE), применяемые в области информационной безопасности. Установлены ограничения (конечное «время жизни» данных для обучения LLM, недостаточные когнитивные способности языковых моделей, отсутствие самостоятельного целеполагания и сложности при адаптации LLM к новым параметрам задачи). Выявлены потенциальные точки роста и развития технологии в контексте киберзащиты (исключение «галлюцинаций» моделей и обеспечение защиты LLM от джейлбрейков, осуществление интеграции известных разрозненных решений и программная автоматизация выполнения задач в области информационной безопасности с помощью LLM). Обсуждение. Полученные результаты могут быть полезны при разработке собственных теоретических и практических решений, обучающих и тренировочных наборов данных, программных комплексов и инструментов для проведения тестирования на проникновение. Исследование поможет в реализации новых подходов к построению LLM и повышению их когнитивных способностей, учитывающих аспекты работы с джейлбрейками и «галлюцинациями», а также для самостоятельного дальнейшего многостороннего изучения вопроса.
53
Введение. Исправление ошибок, возникающих при хранении, обработке и передаче данных позволяет обеспечивать их целостность. Для противодействия этим ошибкам используются методы канального кодирования. Возникающий в реальных системах шум часто имеет коррелированный характер, в то время как традиционные подходы к кодированию и декодированию основаны на декорреляции, что приводит к снижению предельных характеристик канального кодирования. Полярные коды, принятые в качестве схемы кодирования в современном стандарте связи пятого поколения, показывают низкие вероятности ошибки при декодировании в каналах без памяти. Актуальной является задача исследования пригодности полярных кодов для каналов с памятью, анализа их пакетной корректирующей способности, а также сравнение с известными методами помехоустойчивого кодирования. Метод. Для оценки пакетной корректирующей способности использован метод вычисления рангов каждой из подматриц проверочной матрицы полярного кода фиксированного размера. Увеличение пакетной корректирующей способности полярного кода возможно с помощью предложенной процедуры перемежения. Анализ пакетной корректирующей способности полярных кодов проводится для кодов небольшой длины. Основные результаты. Выполнен анализ и сравнение пакетной корректирующей способности полярных кодов с кодами, определяемыми случайной порождающей матрицей, кодами Гилберта и низкоплотностными кодами. Анализ вероятности ошибки декодирования показал, что стандартные алгоритмы декодирования полярных кодов не позволяют достигать малых вероятностей ошибок. Такая же вероятность ошибки декодирования 0,01, как и для канала Гилберта, достигается полярным кодом в двоичном симметричном канале с большей, чем в два раза безусловной вероятностью ошибки. Обсуждение. Результаты исследования показывают, что пакетная корректирующая способность стандартных полярных кодов мала. Предложенный подход с перемежением улучшает пакетную корректирующую способность и позволяет достичь значений, близких к границе Рейгера. Направлением дальнейших исследований может быть разработка алгоритмов декодирования полярных кодов, адаптированных для каналов с длиной пакетов, имеющих случайную длину.
61
Введение. Современные поисковые системы используют двухэтапную архитектуру для эффективного и качественного поиска по большим объемам данных. На первом этапе применяются простые и быстрые алгоритмы, такие как BM25, а на втором — более точные, но ресурсоемкие методы, например глубокие нейронные сети. Несмотря на то, что такой подход показывает хорошие результаты, он фундаментально ограничен по качеству из-за проблемы несовпадения словарей, что присуще простым алгоритмам первого этапа. Метод. Для решения проблемы ограничений качества поиска, в настоящей работе предлагается алгоритм построения инвертированного индекса с использованием векторных представлений. Представленный подход объединяет преимущества обоих этапов: эффективность инвертированного индекса и высокое качество поиска при использовании векторных моделей. Предложено создание векторного индекса, сохраняющего различные семантические значения токенов словаря. Для каждого токена определяются документы, в которых он используется, после чего его контекстуализированные эмбеддинги кластеризуются. Центроиды полученных кластеров представляют различные семантические значения токенов. Таким образом, формируется расширенный словарь, который применяется для построения инвертированного индекса. При построении индекса вычисляются оценки близости между каждым семантическим значением токена и документами, что затем используется в процессе поиска. Это позволяет сократить количество вычислений для оценки близости в режиме реального времени. Поиск по инвертированному индексу требует нахождения ключей в векторном индексе, что позволяет решить проблему несовпадения словарей. Основные результаты. Работа алгоритма продемонстрирована на задаче поиска в наборе данных SciFact. Показано, что предлагаемый метод обеспечивает высокое качество поиска при низких требованиях к объему памяти. Обсуждение. Разработанный алгоритм демонстрирует высокое качество поиска, при этом он поддерживает компактный векторный индекс, размер которого остается неизменным и определяется исключительно размерами словаря. Основным недостатком алгоритма является необходимость использования глубокой нейронной сети для генерации векторных представлений запроса в процессе поиска, что замедляет этот этап. Поиск путей для решения данной проблемы и сокращения времени поиска представляет собой направление дальнейших исследований.
68
Введение. Выполнена оценка эффективности нейросетевого метода семантической сегментации трехмерных облаков точек, полученных с использованием беспилотного летательного аппарата «Геоскан 401 Лидар». Реализована нейронная сеть, основанная на модели глубокого обучения PointNet++, которая использует метод непосредственной обработки облаков точек. Разработана методика получения и подготовки набора данных с четырьмя классами: земля, растительность, транспортные средства и строительные объекты. Для увеличения точности оценки предложена методика, основанная на аугментации и перераспределении наборов данных. Метод. Модель нейронной сети состоит из иерархически построенных блоков, выполняющих выборку, группировку и извлечение признаков. Изменение количества блоков и задание радиуса поиска локальных признаков влияет на точность сегментации и вычислительные затраты. Основные результаты. Проведена оценка эффективности метода семантической сегментации трехмерных облаков точек, полученных с помощью беспилотного летательного аппарата. Методика аугментации и перераспределения наборов данных позволила улучшить среднее значение Intersection over Union (IoU) не менее, чем на 35 %. Для полученных данных определен оптимальный радиус в слое группировки, при котором обеспечивается баланс между детализацией и чувствительностью. Установлено, что увеличение количества точек в наборе данных не приводит к существенному росту точности, однако разнообразие используемых наборов данных улучшает эффективность подхода. Обсуждение. Разработанный набор данных позволяет повысить эффективность применяемого подхода, в том числе при обучении на иных моделях. Полученные результаты исследования свидетельствуют о перспективности использования предложенных методик и алгоритмов при решении задачи построения цифровых моделей реки Амур и ее основных притоков.
78
Технология сглаживания изображений применяется при обработке изображений. Использование данной технологии ослабляет текстуру и ненужные высокочастотные компоненты, обеспечивает получение гладкого изображения с сохраненной структурой для облегчения последующих операций корректировки или анализа. Получение сглаженных изображений требуется во многих приложениях при обработке, например, High Dynamic Range изображений, при усилении деталей, повышении резкости, обнаружении краев, стилизации, абстракции и т. д. При этом, не все существующие методы сглаживания изображений успешно справляются с поставленной задачей. В результате могут возникнуть нежелательные проблемы, такие как удаление существенных деталей, введение чрезмерного размытия, дефекты обработки, ореолы и другие артефакты. В работе представлен новый алгоритм, который эффективно сглаживает изображение. Алгоритм основан на концепции направленных дисперсий (Directional Variances, DV) для минимизации энергии и получения баланса между сохранением структуры и гладкостью. С помощью концепции DV представленный алгоритм итеративно сглаживает изображение, диффузии, осуществляет регуляризацию и минимизацию энергии. Выполненная оценка полученных результатов на различных изображениях показала эффективность разработанного алгоритма. Алгоритм на основе DV обладает превосходными возможностями сглаживания изображений, сохраняя при этом структурные детали, что делает его ценным инструментом для приложений, применяемых в области цифровой обработки изображений.
87
Введение. Предложен новый метод генерации модельных наборов (Distributed Acoustic Sensing, DAS) сигналов различных классов. Статистические характеристики модельных сигналов аналогичны реальным DAS- сигналам соответствующих классов и могут быть использованы для повышения качества обработки DAS- сигналов методами машинного обучения. Метод. Представленный метод состоит в модификации технологии генеративных состязательных сетей (Generative Adversarial Network, GAN). Новизна подхода заключается во введении дополнительного контура внешнего контроля эффективности генеративной сети, который включает классификатор, обученный на доступном (малом) корпусе реальных DAS-сигналов. Основные результаты. Предложен оригинальный метод генерации модельных наборов DAS-сигналов, основанный на технологии GAN, и отличающийся от классической технологии наличием дополнительного контура внешнего контроля качества. Сформулирован критерий оптимальности генерирующей системы, который достигается путем пошагового реконфигурирования нейросетевой структуры GAN. Реконфигурирование основано на методе оптимизации Нелдера–Мида. Разработана и исследована на реальных данных программная реализация предложенного метода на платформе Python. Приведены результаты, доказывающие практическую эффективность рассмотренного подхода. Использование метода позволило увеличить мощность обучающего корпуса данных и, тем самым, повысить результирующую надежность классификации целевых DAS-сигналов. Обсуждение. Разработанный подход перспективен для применения в тех случаях, когда емкость представленных для обучения корпусов данных недостаточна для обеспечения высоконадежной классификации.
95
Введение. Представлен алгоритм планирования многомерных траекторий для 5D-принтера. Метод направлен на решение проблем, возникающих при традиционной трехмерной (3D) печати. Стандартные методы 3D-печати с использованием послойного наплавления материала приводят к анизотропии механических свойств, в результате чего прочность изготавливаемого объекта зависит от направления нанесения слоев. Это ограничивает возможности для создания равнопрочных изделий сложной геометрии. Предлагаемый алгоритм позволит достичь равномерного распределения прочностных характеристик объекта за счет оптимизации траекторий печати. Метод. Алгоритм основан на построении траекторий с использованием сферических спиральных слоев. Предлагаемое решение учитывает изменяющиеся параметры печати, такие как высота слоя и толщина линии. Алгоритм адаптируется под различные геометрические формы объекта. Основной особенностью методики является обеспечение изотропии свойств изделия за счет равномерного распределения материала по траекториям. Также алгоритм включает построение нормалей в каждой точке кривой для точного задания направления движения печатающей головки. Используемый подход позволяет избежать стандартных ограничений, характерных для 3D-печати. Основные результаты. Алгоритм протестирован на моделях, имеющих простые и сложные геометрические формы с высоким уровнем кривизны. В ходе компьютерного моделирования проведены эксперименты с различными значениями высоты слоя и толщины линии. Результаты экспериментов позволили оценить влияние этих параметров. Алгоритм продемонстрировал высокую сходимость при разных значениях входных параметров, обеспечивая точное выполнение траекторий независимо от начальных условий. Была выполнена визуализация траекторий и нормалей, что подтвердило правильность направления печати и равномерное нанесение материала. Для удобства дальнейшей работы разработан промежуточный формат представления траекторий, который легко преобразуется в G-коды. Это позволяет подготовить данные для натурных экспериментов, которые будут проведены для оценки эффективности алгоритма в реальных условиях печати. Обсуждение. Алгоритм планирования многомерных траекторий открывает новые возможности для аддитивного производства и позволяет создавать сложные объекты с улучшенными механическими свойствами без необходимости в проектировании дополнительных конструктивных элементов для повышения прочности. Предложенный метод может найти применение в авиастроении, автомобилестроении и медицине, где важны как сложные геометрические формы, так и высокая прочность изделий.
106
Введение. Планирование вычислений занимает важное место в процессе проектирования распределенных систем обработки информации и управления. Эффективные алгоритмы планирования позволяют находить технические решения, адекватные существующим ограничениям. Это становится особенно актуально для вычислителей, размещенных на автономных носителях, таких как беспилотные летательные аппараты, необитаемые подводные аппараты и другие подвижные объекты. В работе предложены и исследованы алгоритмы планирования заданий для распределенной вычислительной недетерминированной системы в случае, когда время выполнения заданий известно неточно и задано в виде временных интервалов. Метод. Решение поставленной задачи достигается путем сведения ее к известной задаче flow shop планирования с последующим применением формализма разрешимых классов распределенных вычислительных систем. Основные результаты. Предложены два алгоритма планирования заданий для недетерминированной распределенной вычислительной системы. Алгоритмы допускают отсутствие изоморфизмов между графами заданий и графом межпроцессорных связей. В этом случае невозможно применение известных алгоритмов flow shop планирования. Алгоритмы предполагают предварительное приведение рассматриваемой системы к требуемому виду и базируются на положениях интервального анализа и понятии разрешимого класса распределенных вычислительных систем. Критерием оптимальности предложенных алгоритмов служит минимум среднего времени пребывания задания в системе. Дополнительно для второго алгоритма используется критерий минимума максимального отклонения от заданных директивных сроков. Для введенных разрешимых классов систем для обоих критериев сформулированы оптимальные алгоритмы планирования полиномиальной сложности. Обсуждение. Предложенные решения могут быть применены при планировании вычислений в распределенных вычислительных системах при неточно известных длительностях решаемых задач, в частности, при планировании экономических процессов.
114
В постоянно меняющемся цифровом мире рост сложных киберугроз, особенно атак DoS (отказ в обслуживании) и DDoS (распределенный отказ в обслуживании), представляет собой серьезную проблему для информационной безопасности. В работе рассматривается задача классификации вредоносного и безопасного сетевого трафика с спользованием применением классификатора CatBoost — алгоритма машинного обучения, оптимизированного для категориальных данных и несбалансированных наборов данных. Использованы наборы данных CIC- IDS2017 и CSE-CIC-IDS2018, которые имитируют различные сценарии кибератак. оптимизация классификатора CatBoost для распознавания конкретных подтипов атак DoS и DDoS, включая Hulk, SlowHTTPTest, GoldenEye, Slowloris, HOIC, LOIC-UDP-HTTP, LOIT. Разработана методика работы CatBoost для подготовки данных, отбора признаков и настройки модели, нормализации выбросов, корректировки отрицательных значений и улучшения структуры наборов данных. Стратифицированная выборка обеспечила сбалансированное представление классов в обучающих, валидационных и тестовых наборах. Разработанная модель CatBoost продемонстрировала отличные результаты с общей точностью 0,999922, высокой полнотой и значениями F1-меры по всем категориям и способностью обрабатывать более 3,4 млн образцов в секунду. Эти результаты показывают, что модель является надежной и подходит для обнаружения вторжений в реальном времени. Классификация конкретных типов атак улучшает точность системы обнаружения вторжений (Intrusion Detection Systems, IDS) и позволяет целенаправленно реагировать на различные угрозы. Существенное повышение точности обнаружения решает проблему несбалансированных наборов данных и необходимость детектирования различных типов атак. CatBoost рекомендуется к использованию в передовых рамках информационной безопасности для критической инфраструктуры, облачных сервисов и корпоративных сетей для защиты от цифровых угроз. Данная работа предлагает быстрое, точное и масштабируемое решение для сетевой IDS и подчеркивает важность использования кастомизированных моделей машинного обучения в информационной безопасности. В дальнейшем предполагается изучить применение CatBoost на большем количестве наборов данных и его интеграцию с другими методами машинного обучения для повышения устойчивости и точности обнаружения.
128
Введение. Распространение искусственного интеллекта и методов машинного обучения сопровождается увеличением количества уязвимостей и угроз в системах, реализующих подобные технологии. Значительную опасность для таких систем представляют атаки на основе вредоносных возмущений. Для защиты от них разработаны различные решения, к числу которых относятся подход к обнаружению неконвенциональной пиксельной атаки на нейронные сети обработки изображений методами статистического анализа и алгоритм обнаружения таких атак посредством отсечения по порогу. Недостатком алгоритма отсечения по порогу является необходимость определения значения параметра (порога отсечения) для обнаружения различных атак и учета специфики наборов данных, что затрудняет его применение на практике. В работе изложен метод обнаружения неконвенциональных пиксельных атак на нейронные сети обработки изображений посредством статистического анализа распределения оценок аномальности. Метод. Для выявления искажения, свойственного неконвенциональным пиксельным атакам, определяются отклонения от ближайших соседей и расстояния Махаланобиса. По их значениям вычисляется матрица оценок аномальности пикселов изображения. Предполагается, что статистическое распределение оценок аномальности пикселов различно для атакованных и неатакованных изображений и для возмущений, встраиваемых при различных атаках. В этом случае атаки могут быть обнаружены посредством анализа статистических характеристик распределения оценок аномальности. Полученные характеристики используются в качестве предикторов для обучения моделей обнаружения аномалий и классификации изображений. Основные результаты. Апробация метода выполнена на наборах данных CIFAR-10, MNIST и ImageNet. Разработанный метод продемонстрировал высокое качество обнаружения и классификации атак. На наборе данных CIFAR-10 точность (accuracy) обнаружения атак (аномалий) составила 98,43 %, а бинарной и многоклассовой классификаций — 99,51 % и 99,07 % соответственно. Обсуждение. Несмотря на то, что точность обнаружения аномалий ниже аналогичного показателя многоклассовой классификации, предложенный метод позволяет успешно применять его для распознавания принципиально схожих атак, не содержащихся в обучающей выборке. Для обнаружения и классификации атак используются только входные данные, в результате чего предложенный метод потенциально может быть использован независимо от архитектуры модели или наличия целевой нейронной сети. Метод может быть рекомендован для обнаружения изображений, искаженных неконвенциональными пиксельными атаками в обучающей выборке.

МАТЕМАТИЧЕСКОЕ И КОМПЬЮТЕРНОЕ МОДЕЛИРОВАНИЕ

140
Введение. Современные методы моделирования процесса эрозии материалов твердыми частицами позволяют на микроуровне оценить влияние условий движения частиц, контакта с поверхностью, их формы и материала. Известные зарубежные работы по изучению пар эродента и алюминиевых, титановых сплавов и сталей не дают правильной оценки влияния трения и вращения частиц на остаточное напряженно-деформированное состояние и глубину износа при относительно высоких скоростях частиц. Мало изученным остается вопрос кратковременного нагрева приповерхностного слоя, что при высоких температурах может влиять на свойства материала. Устранение такой неопределенности повысит предиктивную точность модели абразивного износа. Метод. В работе представлены результаты двумерного конечно-элементного моделирования эрозионного износа поверхности распространенного алюминиевого сплава Al6061-T6 при взаимодействии с частицами двуокиси кремния (SiO2). Упругопластическое поведение материала поверхности и условия разрушения задавались моделью Джонсона–Кука. Основные результаты. Для оценки взаимовлияния следов множественных ударов частиц и изменения напряженно-деформированного состояния поверхности выполнено моделирование последовательных ударов трех групп жестких частиц диаметром 250 мкм со скоростью 155 м/с под углом 45°. Изучено изменение эквивалентных напряжений в образце после каждого удара. Проведена оценка влияния трения между частицами SiO2 и поверхностью, а также вращения сферических частиц и его направления. Обсуждение. Показано, что учет трения влияет на профиль эквивалентных напряжений уже после первого удара и сохраняет влияние в дальнейшем. Зависимость результатов от направления вращения частиц при скорости 1000 об/мин проявляется только после второго удара и усиливается после удара третьей группы частиц. Предполагается, что для алюминиевых сплавов серии 6000 и сферических частиц SiO2 другого размера полученные зависимости будут качественно сохраняться. Дальнейшие исследования предполагают анализ влияния формы несферических частиц SiO2 при вращении, важность учета деформируемости частиц при ударе, а также воздействие этих эффектов при большем количестве ударов и различных условиях контакта.
151
Введение. Одной из главных проблем применения данных в задачах поддержки принятия решений является их дефицит в определенных пространственных точках/областях ввиду невозможности проведения соответствующих измерений. Примером этого являются данные о состоянии магнитного поля Земли (геомагнитные данные), на основании которых принимаются решения для сокращения негативного воздействия экстремальных геофизических событий на объекты и системы техносферы (линии электропередач, системы связи, автоматика железных дорог и пр.). Анализ существующей инфраструктуры сбора геомагнитных данных с позиций системного анализа позволил идентифицировать неполное покрытие сетью мониторинга, что негативно сказывается на принятии решений при обеспечении техносферной безопасности в пространственных областях. На примере геомагнитных данных выявлено, что известные методы интерполяции, не учитывающие особенности пространственно-временных характеристик описываемых данными процессов и их зависимость от внешних факторов, недостаточно эффективно справляются с поставленной задачей. Метод. Для решения обозначенной проблемы предложен подход к адаптивной пространственной интерполяции, основной идеей которого является динамический подбор методов интерполяции, наиболее эффективных при различных факторах. Для примера геомагнитных данных в качестве таких факторов выбраны принадлежность пространственной точки определенной широтной зоне и индекс геомагнитной активности в рассматриваемый период времени. Основные результаты. Для оценки предлагаемого решения разработан прототип веб-ориентированного приложения. Эксперимент проведен с использованием геомагнитной информации проекта SuperMAG. При сравнении среднеквадратической ошибки интерполяции применение предлагаемого подхода показало большую эффективность, чем применение какого-либо отдельного метода интерполяции. Обсуждение. Предложенная адаптивная интерполяция может быть использована в системах, реализующих интерполяцию геопространственных данных, как альтернатива стандартным методам интерполяции, с целью повышения точности восстановления данных. Сделан вывод, что при работе с геомагнитными данными могут быть использованы данные о широтной зоне и геомагнитной активности. Интерполяция данных иной природы может потребовать предварительного анализа для выявления значимых факторов.
160
Введение. Проблема исправления ошибок в канале связи может быть решена определением наиболее вероятного вектора ошибок в канале. При этом в ряде случаев решается эквивалентная задача нахождения вектора минимального веса. Это требует введения функции расстояния, согласованной с каналом связи. В классической теории кодирования традиционно используются метрики Хэмминга и Евклида, в то время как для многих каналов связи согласованные с ними функции расстояния неизвестны. Построение таких функций может снизить вероятность ошибки декодирования и является актуальной задачей. В данной работе предложено решение проблемы разработки функции декодирования, совпадающей с декодированием по максимуму правдоподобия в простом марковском канале. Метод. Выполнен анализ вероятностей векторов в простом марковском канале. Разработанная функция расстояния представлена как сумма набора коэффициентов, зависящих от параметров канала. Предложен способ вычисления коэффициентов, при которых функция является согласованной с каналом. Рассмотрено несколько аппроксимаций для случая, когда параметры канала неизвестны или известны неточно. На примере сверточного кодирования экспериментально оценено влияние предложенной функции и ее аппроксимаций на вероятность ошибки. Основные результаты. Сформулировано правило, обеспечивающее декодирование по максимуму правдоподобия в простом марковском канале. Предложенная функция расстояния согласована с каналом при любых длинах кодов, в отличие от известных марковских метрик. Рассмотрены вопросы выбора коэффициентов функции декодирующего правила, упрощающие вычисление функции с возможным нарушением согласованности. На основе полученной функции представлена экспериментальная оценка вероятности ошибки по максимуму правдоподобия для сверточного кода в простом марковском канале. Приведена оценка влияния аппроксимации коэффициентов на вероятность ошибки декодирования. Дано сравнение предложенного решения с известным классом марковских метрик. Обсуждение. Проведенные эксперименты показали, что предложенная согласованная функция и ее упрощенный вариант обеспечивают значительное снижение вероятности ошибки по сравнению с метрикой Хэмминга, а также известной марковской метрикой при низких значениях априорной вероятности битовой ошибки. Использование квантований значений функции практически не увеличивает вероятность ошибки декодирования по сравнению с декодированием по максимуму правдоподобия. Метод, основанный на анализе вероятности векторов в канале с двумя состояниями, может быть использован при разработке декодирующих функций для более сложных моделей каналов Гилберта и Гилберта–Эллиотта. Такие функции позволяют повысить надежность передачи сообщений в каналах со сложной структурой шума и обеспечивают декодирование по максимуму правдоподобия в марковском канале, в то время как традиционный подход к декорреляции канала существенно снижает пропускную способность.

КРАТКИЕ СООБЩЕНИЯ

169
Рассмотрено использование метода динамического расширения и смешивания регрессора для повышения скорости обучения в задачах машинного обучения. Предложенный подход продемонстрирован на примере перцептрона, применяемого для задач регрессии и бинарной классификации. Метод позволяет преобразовать мультипараметрическую задачу оптимизации в набор независимых скалярных регрессий, что значительно ускоряет сходимость алгоритма и снижает вычислительные затраты. Результаты компьютерного моделирования, включающие сравнение с методами стохастического градиентного спуска и Adam, подтвердили преимущество предложенного подхода для скорости сходимости и эффективности вычислений.
174
Предложена новая проверяемая псевдослучайная функция (Verifiable Random Function, VRF), основанная на задаче синдромного декодирования и подписи Wave, устойчивая к атакам квантового компьютера. Разработанная новая схема VRF демонстрирует возможность применения задачи синдромного декодирования для реализации криптографически стойких решений. Представлено описание ключевых алгоритмов VRF (KeyGen, VRFEval, VRFVerify). Показаны основные свойства функции: полная доказуемость, уникальная доказуемость и псевдослучайность.
Информация 2001-2025 ©
Научно-технический вестник информационных технологий, механики и оптики.
Все права защищены.

Яндекс.Метрика