Аннотация:Данная курсовая работа, объемом 16 страниц, посвящена оценке взаимной информации с помощью метода MINE. Точнее говоря, применяется известная теорема Донскера – Варадана (Donsker – Varadhan), позволяющая находить дивергенцию Кульбака – Лейблера между мерами P и Q с помощью усреднения по этим мерам определенных функций от случайной величины T и последующего взятия верхней грани по всем T. Этот подход является плодотворным, поскольку взаимная информация случайных величин (или векторов) есть дивергенция Кульбака – Лейблера между их совместным распределением и произведением маргинальных распределений. В последние годы ряд авторов получают оценки совместной информации, используя отображения T, входящие в некоторые классы отображений. А именно, рассматриваются должные семейства функций T(θ),где параметр θ входит в заданное множество, а меры заменяются их эмпирическими аналогами. Существенную роль играет работа K.Hornik (1989), позволяющая осуществлять равномерные аппроксимации изучаемых функций. Автор курсовой работы не только освоил сложный материал (список литературы содержит 8 наименований), но и дал подробные доказательства некоторых нетривиальных утверждений, позволяющих реализовать упомянутую выше схему.