Как мозг может обрабатывать столько данных

Исследователи из Технологического института Джорджии обнаружили, что люди могут классифицировать данные, используя менее 1 процента исходной информации, и утвердили алгоритм, объясняющий человеческое обучение — метод, который также можно использовать для машинного обучения, анализа данных и компьютерного зрения.«Как мы можем так быстро и надежно разобраться в таком количестве данных вокруг нас, стольких разных типов?» сказал Сантош Вемпала, заслуженный профессор компьютерных наук Технологического института Джорджии и один из четырех исследователей проекта. «На фундаментальном уровне, как люди начинают это делать?

Это вычислительная проблема».Исследователи Роза Арриага, Майя Чакмак, Дэвид Раттер и Вемпала из вычислительного колледжа Технологического института Джорджии изучали производительность человека в тестах «случайной проекции», чтобы понять, насколько хорошо люди изучают объект. Они представили испытуемым оригинальные абстрактные изображения, а затем спросили, могут ли они правильно идентифицировать это же изображение, когда случайным образом показывается только небольшая его часть.

«Мы предположили, что случайная проекция может быть одним из способов обучения людей», — объясняет Арриага, старший научный сотрудник и психолог развития. «Короче говоря, предсказание оказалось верным. Для людей достаточно всего 0,15 процента всех данных».Затем исследователи протестировали вычислительный алгоритм, позволяющий машинам (очень простым нейронным сетям) выполнять те же тесты.

Машины работают так же хорошо, как люди, что дает новое понимание того, как люди учатся. «Мы нашли доказательства того, что на самом деле человек и нейронная сеть ведут себя очень похоже», — сказал Арриага.Исследователи хотели придумать математическое определение того, как выглядят типичные и атипичные стимулы, и, исходя из этого, предсказать, какие данные будет труднее всего усвоить человеку и машине. Люди и машины работали одинаково, демонстрируя, что действительно можно предсказать, какие данные будет труднее всего изучить с течением времени.

Результаты были недавно опубликованы в журнале Neural Computation (MIT press). Считается, что это первое исследование «случайной проекции», основного компонента теории исследователей, с участием людей.Чтобы проверить свою теорию, исследователи создали три семейства абстрактных изображений размером 150 x 150 пикселей, а затем очень маленькие «случайные наброски» этих изображений. Испытуемым показывали все изображение в течение 10 секунд, а затем случайным образом показывали по 16 эскизов каждого изображения. абстрактные изображения гарантировали, что ни люди, ни машины не знали заранее, что это за объекты.

«Мы были удивлены тем, насколько близка была производительность между чрезвычайно простыми нейронными сетями и людьми», — сказал Вемпала. «Дизайн нейронных сетей был вдохновлен тем, как мы думаем, что люди учатся, но это слабый источник вдохновения. Обнаружить, что он соответствует возможностям человека, — это большая неожиданность».«В этой увлекательной статье представлена ??локализованная случайная проекция, которая сжимает изображения, но при этом позволяет людям и машинам различать широкие категории», — сказал Санджой Дасгупта, профессор компьютерных наук и инженерии Калифорнийского университета в Сан-Диего и эксперт по машинному обучению. и случайная проекция. «Это творческое сочетание идей из геометрии, нейронных вычислений и машинного обучения».Хотя исследователи не могут окончательно утверждать, что человеческий мозг на самом деле участвует в случайной проекции, результаты подтверждают мнение о том, что случайная проекция является правдоподобным объяснением, заключают авторы.

Кроме того, он предлагает очень полезную технику для машинного обучения: большие данные представляют собой серьезную проблему сегодня, а случайное проецирование — один из способов сделать данные управляемыми без потери важного контента, по крайней мере, для базовых задач, таких как категоризация и принятие решений.Алгоритмическая теория обучения, основанная на случайной проекции, уже упоминалась более 300 раз и стала широко используемым методом в машинном обучении для обработки больших объемов данных различных типов.