Topic outline

  • Введение

    Предмет дисциплины, её объём, содержание и связь с другими дисциплинами учебного плана. Компьютерные атаки на нейронные сети. Связь между защитой параметров обученной нейронной сети (знаний) и состязательными атаками. Атака «на решающий бит». Атака «ключ под ковриком». Состязательные атаки и зондирование нейронных сетей (атака «извлечения знаний»). Понятие преобразователя образов в код и защищенного исполнения нейросетевых алгоритмов. Области применения защищенного режима исполнения нейросетевых алгоритмов. Отлучение ИИ от принятия решений. Защита нейросетевых решающих правил на основе гомоморфного шифрования, классического шифрования и без использования шифрования. Повышение энтропии выходов преобразователя образов в код для противодействия атакам «извлечения знаний». Модели ИИ, способные к защищенному исполнению.
  • Защищенное исполнение нейросетевых алгоритмов на базе линейных нейронов

    Атака извлечения знаний на примере нейросетевых преобразователей биометрия-ко (НПБК), обученного по ГОСТ Р 52633.5. НПБК –частный случай преобразователя образов в код. Энтропия выходов НПБК. Защищенные нейросетевые контейнеры (ЗНК), формируемые из параметров обученной неглубокой нейронной сети. Концепция ЗНК. Объединение нейронов в цепочки и шифрование параметров каждого нейрона с использованием ключа, формируемого на основании выходов предыдущих нейронов в цепочке путем применения обратимых и необратимых преобразований.
  • Защищенное исполнение нейросетевых алгоритмов на базе квадратичных нейронов

    Плоское пространство признаков и мера Минковского. Искривление пространства признаков из-за взаимных корреляционных связей между признаками. Понятие спрямляющего пространства признаков. Проблема проклятья размерности. Обход проблемы проклятья размерности путем построения комитета (сети) частично связных квадратичных нейронов. Cети радиально-базисных функций. Сокрытие параметров распределения (статистических моментов) значений признаков после обучения сети квадратичных нейронов. Защищенное исполнение сетей квадратичных нейронов.
  • Защищенное исполнение нейросетевых алгоритмов на базе корреляционных нейронов

    Понятие взаимной информации. Мера Байеса-Минковского. Точечная оценка корреляции. Мета-пространство признаков Байеса-Минковского и его построение с помощью специального отображения (на примере сгенерированных образов). Мета-пространства признаков Байеса-Минковского, не компрометирующие знания ИИ. Свойства мета-пространства признаков Байеса-Минковского. Защита знаний ИИ путем сокрытия статистических моментов признаков и дифференциальной конфиденциальности. Модели преобразователей образов в код на базе сетей корреляционных нейронов, алгоритмы их автоматического синтеза и обучения на малых выборках. Сокращение объема обучающей выборки путем перехода в мета-пространство признаков Байеса-Минковского. Стабилизация вычислений статистических моментов случайной величины. Повышение точности статистических оценок коэффициентов корреляции и гистограмм относительных частот на малых выборках.
  • Защищенное исполнение гибридных нейросетевых алгоритмов

    Модели гибридные нейронных сетей, состоящих из линейных, квадратичных и корреляционных нейронов. Синтез и автоматическое обучение гибридных нейронных сетей. Преимущества гибридных нейронных сетей. Объединение преобразователей образов в код (на базе любых видов нейронов) с глубокими нейронными сетями. Дрейф моделей ИИ в защищенном исполнении. Автоматическое переобучение (повторное обучение) преобразователей образов в код без переобучения (повторного обучения) глубокой нейронной сети. Построение экстракторов признаков с заданным законом распределения на базе нейронных сетей. Контроль распределения коэффициентов парной корреляции между признаками(балансировка внутренних корреляционных связей образов). Вариационные автокодировщики и их применение для извлечения признаков с нужными свойствами.
  • Заключение

    Итоги курса. Перспективы развития нейросетевых моделей ИИ, способных к защищенному исполнению. О защищенном исполнении нейросетевых алгоритмов при построении сильного ИИ. Об объяснимости решений принимаемых ИИ в защищенном режиме исполнения.