Topic outline
Введение
Предмет дисциплины, её объём, содержание и связь с другими дисциплинами учебного плана. Компьютерные атаки на нейронные сети. Связь между защитой параметров обученной нейронной сети (знаний) и состязательными атаками. Атака «на решающий бит». Атака «ключ под ковриком». Состязательные атаки и зондирование нейронных сетей (атака «извлечения знаний»). Понятие преобразователя образов в код и защищенного исполнения нейросетевых алгоритмов. Области применения защищенного режима исполнения нейросетевых алгоритмов. Отлучение ИИ от принятия решений. Защита нейросетевых решающих правил на основе гомоморфного шифрования, классического шифрования и без использования шифрования. Повышение энтропии выходов преобразователя образов в код для противодействия атакам «извлечения знаний». Модели ИИ, способные к защищенному исполнению.Защищенное исполнение нейросетевых алгоритмов на базе линейных нейронов
Атака извлечения знаний на примере нейросетевых преобразователей биометрия-ко (НПБК), обученного по ГОСТ Р 52633.5. НПБК –частный случай преобразователя образов в код. Энтропия выходов НПБК. Защищенные нейросетевые контейнеры (ЗНК), формируемые из параметров обученной неглубокой нейронной сети. Концепция ЗНК. Объединение нейронов в цепочки и шифрование параметров каждого нейрона с использованием ключа, формируемого на основании выходов предыдущих нейронов в цепочке путем применения обратимых и необратимых преобразований.Защищенное исполнение нейросетевых алгоритмов на базе квадратичных нейронов
Плоское пространство признаков и мера Минковского. Искривление пространства признаков из-за взаимных корреляционных связей между признаками. Понятие спрямляющего пространства признаков. Проблема проклятья размерности. Обход проблемы проклятья размерности путем построения комитета (сети) частично связных квадратичных нейронов. Cети радиально-базисных функций. Сокрытие параметров распределения (статистических моментов) значений признаков после обучения сети квадратичных нейронов. Защищенное исполнение сетей квадратичных нейронов.Защищенное исполнение нейросетевых алгоритмов на базе корреляционных нейронов
Понятие взаимной информации. Мера Байеса-Минковского. Точечная оценка корреляции. Мета-пространство признаков Байеса-Минковского и его построение с помощью специального отображения (на примере сгенерированных образов). Мета-пространства признаков Байеса-Минковского, не компрометирующие знания ИИ. Свойства мета-пространства признаков Байеса-Минковского. Защита знаний ИИ путем сокрытия статистических моментов признаков и дифференциальной конфиденциальности. Модели преобразователей образов в код на базе сетей корреляционных нейронов, алгоритмы их автоматического синтеза и обучения на малых выборках. Сокращение объема обучающей выборки путем перехода в мета-пространство признаков Байеса-Минковского. Стабилизация вычислений статистических моментов случайной величины. Повышение точности статистических оценок коэффициентов корреляции и гистограмм относительных частот на малых выборках.Защищенное исполнение гибридных нейросетевых алгоритмов
Модели гибридные нейронных сетей, состоящих из линейных, квадратичных и корреляционных нейронов. Синтез и автоматическое обучение гибридных нейронных сетей. Преимущества гибридных нейронных сетей. Объединение преобразователей образов в код (на базе любых видов нейронов) с глубокими нейронными сетями. Дрейф моделей ИИ в защищенном исполнении. Автоматическое переобучение (повторное обучение) преобразователей образов в код без переобучения (повторного обучения) глубокой нейронной сети. Построение экстракторов признаков с заданным законом распределения на базе нейронных сетей. Контроль распределения коэффициентов парной корреляции между признаками(балансировка внутренних корреляционных связей образов). Вариационные автокодировщики и их применение для извлечения признаков с нужными свойствами.Заключение
Итоги курса. Перспективы развития нейросетевых моделей ИИ, способных к защищенному исполнению. О защищенном исполнении нейросетевых алгоритмов при построении сильного ИИ. Об объяснимости решений принимаемых ИИ в защищенном режиме исполнения.