Воспроизводимость

топ 100 блогов n0mad_003.08.2010 Что-то меня начинает злить проблема воспроизводимости в machine learning -комьюнити.

Вот казалось бы статья. Парни подробно описали все алгоритмы, указали их параметры. Использовали открытые датасеты.

Но! Но не рассказали каким образом делали разбиение на тестовую и обучающую выборку (или как делали cross-validation) на 1м из датасетов.
В результате у меня все отлично работает, но результаты отличаются от приведенных в статье на 10%. Вот теперь думаю - это баг в тщательно вылизанном коде или разный подход к оценке?


Для достижения счастья имхо нужно делать так:
0. Использовать открытые датасеты, лучше сразу поделенные на learning/validation части.
Иногда, правда, все равно понадобится резать кусочки (например, для настройки параметров обучения). Так как самостоятельное распространение данных обычно запрещено, авторы статей должны выкладывать скрипты разбиения датасета на части. Работа скриптов должна быть детерминирована. Например, остаток от деления хешфункции номера строчки на константу или же "рандомизатор" с seed и пр.
1. В дополнение к статье нужно выкладывать код.
Конечно, это усложняет жизнь авторам. Зато среди плюсов (1) если код хороший, его будут использовать, ссылаться и пр (2) поможет победить проблему воспроизводимости (3) людям будет проще продолжать вашу работу. В конце концов исходный код - это такое же описание алгоритмов, только более полное.
2. Естественно, все подробно описывать =)

Правда, сразу же видны и проблемы:
1. Все это неприменимо к публикациям результатов, полученных в промышленных компаниях, так как не на все задачи есть открытые данные, а про открытие кода вообще молчу.
2. Качество кода все равно может быть таким, что ой-вей, лучше бы не показывали =) а значит, никто так и не заглянет.


Вообще говоря, стоит разделять воспроизводимость, повторимость и сравнимость. В идеале, работа по факту должна обладать всеми этими признаками. Следование пункту (0) обеспечивает сравнимость, (1) - повторимость. (0..2) - воспроизводимость.

(разного родаTREC/LETOR/IMAT/Netflix_Prize/mlcomp.org тоже  обеспечивают сравнимость результатов внутри себя).

В общем, для себя я решил выкладывать код по возможности. А что об этом думает общественность? У вас есть такие проблемы? Как вы их решаете?

Ссылка с обсуждением по теме: Daniel Lemire blog

UPD. Из обсуждения по ссылке.

I have reviewed papers with open data. It was great, I ran some stats and proved to myself that their stats were at least correct, I even found a mistake in one of their p-values where they made an erroneous decision on the border (it didn’t affect the rest of the paper).
Может быть, есть еще не упомянутые мною бонусы =)

Оставить комментарий

Архив записей в блогах:
Никак не могу описать состояние дел у Анатолия Эдуардовича Юницкого, который ушел со своим струнным транспортом в Австралию. Последней каплей стал показ СТЮ президенту Ме (ноябрь 2009 г.), когда Ме восторгался разработкой и спросил: "А деньги вы на ...
Пираты, захватившие танкер "Московский университет" с экипажем из России, не ...
Я только что возвратился из Московского Городского Суда, где в зале 227 состоялось финальное заседание по делу Олега Миронова. Большой зал был полон. Сменился прокурор и сменился секретарь суда. Участники процесса согласились со сменой прокурора, я бы не согласился на их месте, смена про ...
Не прошло и нескольких дней после назначения нового украинского премьера, как Вашингтон в очередной раз показал, что никаких изменений в плане поддержки киевского режима нет и не будет. А ведь украинские пропагандисты и караул-патриоты нам все уши прожужжали на тему того, что с приходом ...
Мда. Начиная с 27 октября на Псков от нас ничего железнодорожного не будет. Так что в направлении Санкт-Петербург - Псков транспортная связность железной дорогой утрачена . Теперь только автобус или самолёт (!). При наличии действующего магистрального хода по железке. Посмотрел по РЖД- ...