Экспоненциальный рост ИТ достигнет своего предела
В прошлом мы наблюдали постоянную скорость увеличения мощности обработки информации, как это предсказывалось законом Мура, но теперь похоже, что эта экспоненциальная скорость роста ограничена.
Новые разработки основаны на искусственном интеллекте и машинном обучении, но связанные с ними процессы в значительной степени недостаточно известны и понятны. "Многие методы машинного обучения, такие как очень популярное глубокое обучение, очень успешны, но работают как черный ящик, а это значит, что мы не знаем точно, что происходит. Мы хотели понять, как работает искусственный интеллект, и лучше понять связанные с ним связи ", – сказала профессор Сюзанна Гербер, специалист по биоинформатике в Университете Майнца. Вместе с профессором Иллией Горенко, компьютерным экспертом в Universita della Svizzera italiana и научным сотрудником Mercator Freie Universitat Berlin, она разработала методику выполнения невероятно сложных вычислений с низкими затратами и высокой надежностью. Гербер и Хоренко вместе со своими соавторами обобщили свою концепцию в статье под названием «Недорогая масштабируемая дискретизация, прогнозирование и выбор функций для сложных систем», недавно опубликованной в Science Advances. «Этот метод позволяет нам выполнять задачи на стандартном ПК, для которых раньше требовался суперкомпьютер», – подчеркнул Горенко.
Помимо прогнозов погоды, исследование рассматривает множество возможных приложений, таких как решение задач классификации в биоинформатике, анализе изображений и медицинской диагностике.
Разбиение сложных систем на отдельные компоненты
Представленный документ является результатом многолетней работы по развитию этого нового подхода. Согласно Герберу и Хоренко, этот процесс основан на принципе Лего, согласно которому сложные системы разбиваются на дискретные состояния или паттерны.
Имея всего несколько шаблонов или компонентов, я.е., три или четыре дюжины, большие объемы данных могут быть проанализированы и их будущее поведение может быть предсказано. «Например, с помощью алгоритма SPA мы могли бы сделать прогноз температуры поверхности в Европе на день вперед на основе данных и получить ошибку прогноза всего 0.75 градусов по Цельсию, – сказал Гербер. Все это работает на обычном ПК и имеет коэффициент ошибок на 40 процентов лучше, чем компьютерные системы, обычно используемые метеорологическими службами, но при этом намного дешевле.
SPA или масштабируемое вероятностное приближение – это концепция, основанная на математике. Метод может быть полезен в различных ситуациях, когда требуется автоматическая обработка больших объемов данных, например, в биологии, когда необходимо классифицировать и сгруппировать большое количество клеток. «Что особенно полезно в результате, так это то, что мы можем получить представление о том, какие характеристики использовались для сортировки ячеек», – добавил Гербер.
Еще одна потенциальная область применения – нейробиология. Автоматический анализ сигналов ЭЭГ может лечь в основу оценки церебрального статуса.
Его даже можно использовать для диагностики рака груди, поскольку изображения маммографии могут быть проанализированы для прогнозирования результатов возможной биопсии.
«Алгоритм SPA может применяться во многих областях, от модели Лоренца до молекулярной динамики аминокислот в воде», – заключил Горенко. «Этот процесс проще и дешевле, а результаты лучше, чем на современных суперкомпьютерах."