Эта статья – не очередное «введение в нейросети для чайников», подобных которым множество на гитхабе, хабре и других ресурсах. Цель этой работы - попробовать предложить реальные примеры применения нейросетей в ERP-решениях 1С и их программную реализацию в виде обработки 1С. Рассмотрим далее преимущества и предпосылки к использованию. Ведь нейросети дают фантастические возможности для решения задач, недоступные другими методами. Забегая вперед, скажу, что это еще не сложившийся рынок и методики, а просто попытки нащупать нишу для применения технологии.
Достойные шаги в 1С по направлению использования нейросетей!
Дмитрий, никогда не было размышлений по поводу автоматического построения сети? Т.е. чтобы какой-то алгоритм (или даже специально построенная для этого отдельная сеть) сам рассчитывал количество нейронов, количество входов, количество выходов, тип сети и т.д.?
И еще вопрос... Почему при слишком большом количестве нейронов скрытого слоя сеть будет не «думать» а «зазубривать» возможные варианты? Ведь, по идее, наоборот - точность результата от этого будет выше, нет?
(1) Спасибо! Да есть саморганизующиеся сети (другой совсем тип) и то что Вы написали тоже есть по отношению к многослойным перцептронам. Причем тоже еще в 60х такие работы делались. Сам я тоже занимаюсь самоорагнизующимися сетями с собственной теорией только в другой области (изображения). Для 1Ски я специально такую простую сеть написал чтобы людей не пугать сразу, а чтобы потихоньку с малого начали использовать сети, разбираться. Кто-то дальше пойдет, кому то этого будет достаточно. Такая задумка.
По поводу "зазубривания" как бы не казалось противоположное, но это именно так. Об этом пишут исследователи и самому можно убедиться. Причем я в сове время натыкался на интересную книжку где автор приводит параллели с человеческим обучением (у нейросетей вообще очень много общего с реальным мозгом) и он пишет что типа когда человек чего то не понимает допустим в математике и ему лень разбираться он просто запоминает все возможные варианты т.е. зазубривает. Если дать много нейронов то отдельные сочетания входов просто поставят нужные веса чтобы выходы повторяли входы по отдельному нейрону на каждое сочетание и все. А вот добавить еще скрытых слоев - в это смыл может быть.
Сам я тоже занимаюсь самоорагнизующимися сетями с собственной теорией только в другой области (изображения)
Это тоже в 1С?
Дмитрий, а есть размышления по использованию нейросетей в области конвертации данных? Например, предоставить УПП и ERP для переноса данных с первой конфигурации во вторую. И организовать сеть таким образом, чтобы перенести по максимуму все данные. Вообще, возможно ли такое организовать на сетях?
И еще... Как лучше организовать отдельный модуль по организации сети в 1С? Чтобы можно было внедрить такой "модуль" в любую конфигурацию, а потом вызывать его штатными средствами, например, в тех же отчетах. Организовать для этого какой-то определенный интерфейс, может привязать его к какому-нибудь уже существующему "стандарту" если таковы есть. Есть размышления?
Конечно, есть тот же ТерзорФлоу, почему бы его не использовать отдельной библиотекой. Но соглашусь с Вами, что лучше бы использовать средства 1С, т.к. это дает определенную прозрачность.
(3) Да не, изображения то она не тянет нормально. Хотя у меня есть публикация just for fun что называется http://infostart.ru/public/200922/ . Но пронозирование тянет в самый раз, поэтому я большие надежды на эту технологию возлагаю. Странно что в 1С это по дефолту нет. В САПе Хана есть например.
Насчет конвертации интересный и сложный вопрос. Если допустим использовать сеть для того чтобы искать похожие данные по смыслу (по месту использования, каким то свойствам) то да для этого они подойдут. Но тут думать надо.
Как лучше организовать отдельный модуль по организации сети в 1С?
Так обработка и есть такой модуль . Все процедуры с сетью в модуле обработки. Можно даже ее добавить в конфу и вызывать через объект обработки. Можно в модуль засунуть, да. Все равно обучение через какой то интерфейс надо проводить... А саму сеть решать( прогнозировать) можно просто метод вызывать или функцию как обертку сделать. Там много вариантов. Например я для понятности сделал хранение сетей ф файлах, а реально сейчас например храню в доп. реквизитах контрагентов на одном из решений.
Хорошо подана информация. интересно читать было. в свое время сталкивался с этим. но дальше чтения не пошло. но думаю так что через несколько лет придется занимать вплотную этим..бизнес ростет.
(7) А РАУЗ бизнес любит? Для нейросети не будет четкой интерпретации. Но есть ряд задач, для которых другие алгоритмы не работают (или дают результат существенно хуже).
А в 1С есть типовые методы. Чем они лучше/хуже?
Чем нейросети лучше той же интерполяции? В обработке изображений это понятно, они давно себя зарекомендовали...
А на достаточно простых финансовых данных зачем эти навороты?
(9) Статистика хорошо справляется только там, где есть аналитическая функция хорошо "ложащаяся" на набор данных. В случае набора данных для которого функции нет обученная нейросеть справится значительно лучше.
(8) Интерполяция?... Ну допустим у меня если я сегодня скидку сделаю в 2 раза больше то у меня выручка будет в 2 раза больше? А если в 3раза? Статистикой можно посмотреть допустим сколько товара продавалось при такой же скидке или при другой скидке и сделать линейную (или например квадратичную) экстраполяцию/интреполяцию. Но проблема в том что по статистике сложно вывести зависимость даже от одно фактора если ее мало. А интерпояция/экстраполяция это не порождает абстрактные знания о предмете, т.е. эти методы не добавляет информации - она остается такой же сжатой. Это как битовая картинка если ее увеличивать - появятся квадраты.
Допустим статистики много, но бизнес среда поменялась (что у нас происходит регулярно). Тогда накопленные продажи до 2014 года (2008, 1998 и т.д.) уже неприменимы к текущей ситуации. И план продаж строить на основе данных до кризиса нет смысла. А сеть во первых уловила зависимости, во вторых она к новым данным быстро приспособилась и выдает правильную картинку. В этом ее фишка.
(12)
Вопрос какой функцией выполняем интерполяцию, при многих факторах анализа и сеть сложная будет.
А если обучающая выборка мелкая, то где гарантия, что сеть найдет правильное решение?
(15) Ну я тоже в детстве многослойный персептрон писал на QBASIC-е :)))) Только не догадался выложить "плоды моих научных изысканий" :). Много позже взрослые волосатые дяди научили меня как это надо делать в реальной жизни... :)
(16) не знаю чему вас там волосатые дяди научили в реальной жизни... Я же не предлагаю писать сверточные сети на 1С, тем более они не нужны для задач планирования и прогнозирования. У всего свое применение. Тут речь идет о применении этой технологии к решению конкретных экономических задач. Я мог написать и про CNN которыми я много лет занимаюсь,про генетические алгоритмы и про много что еще. Простой однослойный перцептрон на практике хорошо фильтрует сигнал - там не надо добавлять уровней адстракции если он и так справляется. Тоже самое и применительно к задачам 1Ски.
(17) Простой персептрон не нужен - есть линейная регрессия. Всё равно нужно приличную НС конструировать чтобы решать задачи на практике... ну и не пишется это на 1С конечно :). Не для того она :)
(19) про обработку сигнала это я для примера сказал, понятно что есть лучше методы. Кстати дисперсионные типа парной регрессии вычисляются дольше, ну не суть.
А почему это не пишется на 1С?Какие аргументы? И приличная это какая(какие слои, сколько нейронов) и почему именно такая?
Минимум 4-5 слоёв, иначе смысла особого нейросеть не имеет- будет почти линейный прогноз. Не менее 10-ка нейронов в каждом слое, ну и обучение на нормальном объёме данных.
Не говоря уже о том что если вы строите стат. модель желательно бы попробовать и векторные модели и деревья решений и нелинейную регрессию - вдруг даст лучший результат, ну и сеть обучать конечно не таким алгоритмом, да и не персептрон взять, и функцию активации другую... :).
(30) ух! А как Вы, не зная параметров задачи вот так вот сходу выдали параметры сети, а? И главное чем это обосновано? Почему 4-5, почему 10? Насчет обучения да - backpropagation тормозной алгоритм включая его улучшенные версии. А все остальное то - чем обусловлено?
(30) Ну, на самом деле сеть и с одним скрытым слоем может аппроксимировать практически любую функцию (выпуклую). А с двумя скрытыми слоями - вообще любую (и не выпуклую). 4-5 слоев - это для глубокой сети, когда нужно выявить глубокие закономерности в данных + уменьшить количество связей в сети (сверточная сеть) и настраиваемых параметров.
(38) Простите, не понял про векторную модель и гауссовскую модель..... Распределение по гауссу знаю, функцию такую знаю, что такое вектор знаю. А вот про модель векторную и модель гаусса.... просветите, пожалуйста. (я не ёрничаю, честно не понял).
(45) Это стандартная функциональность Matlab-а при выборе модели для классификации или регрессии.
И то и то относится к машинному обучению, но при этом не НС. НС используют когда эти модели не дают нужного результата.
Что это такое - гуглится:
(50) Ясно - SVM - метод опорных векторов. Меня смутило название - векторная модель. По поводу Гауссовой модели - это упрощенно матрица ко вариации + мат. ожидание -> просто вычисляем коэфф. корреляции с некоторыми ограничениями для нескольких сигналов.
(53) Ну для меня это всё статистические модели :). Они конечно простые, но часто решают задачи лучше чем НС, не говоря о том что быстрее.
Если всё это дело лажает - уже приходится обучать НС, ну и как правило 1-2 слоя в этом случае проблему не решают.
(56) Тут полностью с Вами согласен. SVM, AdaBost, корреляция - математические методы тем и лучше нейронных сетей, что позволяют ответить на вопрос почему данный сигнал (ошибочно или нет) относится методом к такому то классу, а не к другому. В нейронных сетях ответ на этот вопрос скрыт в самой нейросети, и достать его оттуда получается только для самых простых случаев - типа метода XOR, что само по себе настолько тривиально, что применение нейронной сети не оправдано. Поэтому я пытаюсь тоже сначала при решении применить математический метод от самого быстрого и простого - и потом уже по нарастающей.
(38) Глубокая нейросеть - это сеть где на каждом последующем слое (если это однонаправленная сеть) производится анализ специфичных для прикладной области признаков. Например, при анализе изображения - на первом слое - это точки (аналог ганглиозных клеток off/on). На втором - линии. На третьем углы. На четвертом - окружности. Ну а там и до лица человека дойдем. В обычной (второго поколения - MPL - сети) - там один скрытый слой, и этот слой пытается разгрести все изображение -> проблема с отсутствием анализа двумерности изображения, т.к. сеть полносвязная, то кол-во обучаемых параметров - просто огромно-> переобучение и кол-во примеров должно быть очень велико, ну и скорость обучения хромает и т.д. -> это все лечиться добавлением количеством слоев + новой парадигме обучения. Разве я не прав ?
(19) А зачем "приличная НС"? - если задача стоит только в линейном разделении пространства двух классов объектов, и центры тяжести этих двух классов хорошо разделимы линейным классификатором, то почему и не обычный персептрон? - давайте еще AdaBost-инг сюда прикрутим? - тоже линейный (бинарный) классификатор. Не надо усложнять себе задачу, если она решается более простой моделью.
только в линейном разделении пространства двух классов объектов
если она решается более простой моделью.
тогда НЕ НАДО ИСПОЛЬЗОВАТЬ НС! Модель подбирается под задачу. Если задача настолько простая что решается НС с несколькими нейронами, значит НС там не нужно - более того вредно.
(22) Ну, если это не шутка, то думаю для учета с/стоимости сети плохо подходят, по крайней мере гораздо хуже СЛАУ. Хотя... линейные нейроны чем не СЛАУ...
"Но на мой взгляд тут нет ничего сложного, и принцип можно сформулирует так: если подобрать методом научного тыка такие параметры сети, чтобы она распознавала известные значения из выборки с той точностью, которая вас устраивает(а проверить это легко т.к. результат тоже известен), то можно считать что она обучена хорошо и неизвестные значения она также хорошо будет распознавать." - я бы тут лучше параметры сети (количество слоев, количество нейронов в слое, соединения между нейронами) подбирал с помощью генетического алгоритма. А по поводу "о можно считать что она обучена хорошо и неизвестные значения она также хорошо будет распознавать" - это далеко не так - часто приходится обучать сеть с разными параметрами и даже с одинаковыми параметрами сети, но с разными случайными весовыми параметрами сети - разный результат будет. Приходится беггинг применять.
Обработку пока не скачивал, поэтому задам такие вопросы:
- есть ли в модели нейроны смещения?
- как задать гиперпараметры (я понял, что используется обратное распространение ошибки), управляющие градиентным спуском (скорость обучения и ...(забыл как называется))?
- используется стохастический спуск (веса переопределяются сразу в момент уточнения или все сразу)?
- количество операций обучения в каких единицах? - это число "эпох" или число "сетов";
- какое примерно быстродействие у обучения?
- есть ли возможность рассчитать ошибку? как она оценивается?
(36) bias можно просто в формуле задать
Скорость обучения тоже в коде отдельная переменная, на форму не выносил
Веса переопределяются в момент уточнения
Итерации - сеты, если я правильно понял вопрос
Ошибка в процессе обучения оценивается по среднеквадратическому отклонению
Скорость от 5 минут (15 нейронов 10000 итераций) до порядка 20. При текущей скорости обучения.
(39) Дмитрий, спасибо за ликбез. Даже я, человек, далёкий от нейронов и сетей, что-то понял. :)
Что касается "Я буду рад если кто то присоединится к этому проекту", то могу помочь создать готовое решение и продвинуть его. Есть целая отрасль, которая терпит большие убытки от неоперативного обновления ассортимента. Наверняка такая отрасль не одна, но эта - весьма платёжеспособна, плюс я уже вёл переговоры на эту тему, т.е. знаю людей, которые купят такое решение а, может быть, даже частично профинансируют его разработку.
(40) Олег, назвался груздем - полезай в кузов! Кооптирую тебя для участия в проекте.. в свободное от докладов на Инфостарте время. :)
(43) Это очень интересно! Я готов заняться подбором решения на конкретном проекте. Насчет массового решения не уверен, но тоже можно попробовать. Пишите в личку.
(43) Николай, конечно тиражная решение это хорошо... но и тут уже конкуренция приличная... У меня сейчас, к примеру, внедряются некто Nextail для управления товарным ассортиментом на основе машинного обучения. И у них есть конкурентное преимущество - они из Zara...
А для не тиражных с Yandex Data Factory нам конечно не тягаться :(
(49) Да... но "платформа 1С" по аналитическим возможностям уступает специализированным платформам. Т.е. если делать хорошо - это будут некоторые внешние компоненты... А они уже накладывают ограничения - данные сначала нужно затянуть в память а потом передать в ВК.
Таким образом "решение использует алгоритмы машинного обучения" - было бы крутым лэйблом и давало бы конкурентные преимущества, но позиционировать машинное обучение как основу наверное не стоит...
(54) это принцип обратного распостранения ошибки от выходного слоя в обратном направлении, а смысл данного "коэффициента" в том, что коррекция происходит тем больше, чем больше вес у нейрона который включен в связь, т.е. чем больше вес тем больше "вклад" в ошибку - тем больше его надо откорректировать.
(54) (55) Думаю, ответ не совсем точный.
А (1 - А), где А - значение выхода нейрона, это производная функции активации (в данном случае - сигмоида). То есть значение градиента (наклона) по этой координате (весу связи) в методе градиентного спуска. Еще проще - отношение изменения ошибки на выходе к изменению веса связи на входе. Это дает возможность узнать, на сколько в данном направлении нужно изменить вектор весов, чтобы идти в направлении минимума ошибки. Где-то еще должен быть коэффициент, отвечающий за величину шага (скорость обучения) и, возможно, еще один коэффициент (момент), отвечающий за учет величины предыдущего шага (инерцию), чтобы локальные минимумы проскакивать. Если этих коэффициентов и возможности их изменения нет, то обучение может очень часто не удаваться.
(59) Так А-это выход нейрона на который надо распостранить ошибку, чем больше А тем больше ему ошибки достанется. Это чисто для расчета величны ошибки на каждый нейрон предыдущего слоя. Это не формула по которой выход нейрона расчитывается поэтому это не наклон сигмоиды. Наверно непривычно воспринимается потому что я в 2 действия это делаю.
(60) Прошу прощения за занудство:
А тогда (1 - А) зачем?
Проверочные вопросы: 1) а если функция активации будет другой (например, ReLU), формула изменится или нет? 2) как связаны обратное распространение ошибки и градиентный спуск?
Это я к тому, что, кажется, вы воспринимаете формулы, используемые в методе обратного распространения ошибки, как эмпирическое. Хотя они строгим образом выведены исходя из модели нейронной сети (которая действительно изначально эмпирическая). Опасность этого в том, что при таком понимании легко допустить ошибку: например, изменить модель, не изменив метод обучения.
И, наоборот, понимание зависимостей позволяет избегать трат времени на поиск "лучшего метода обучения" (в рамках градиентного спуска).
(64) так это и есть сама функция активации, а та то формула это ошибка для 1го входа 1го нейрона. Т.е. мы уже посчитали выход (не важно какой функцией или вообще как), посчитали отклонение от желаемого значения (опять же неважно как оно получено) и нам надо посчитать на какую величину корректировать вес. Мы же об этой формуле говорим? Или есть какая то связь с функцией активации о которой я не знаю? А где про это написано конкретно - все перерыл не нашел. Вот что в википедии об этом - все как у меня:
(67) А в том то и дело, что гиперболический тангенс - эта по сути та же функция, отличается только областью значений, производная ее той же формулой выражается:
оба графика отличаются лишь масштабом осей. Производная гиперболического тангенса, разумеется, тоже выражается квадратичной функцией значения
...вот смотрю я на всё это, а потом понимаю, что наша реальность - не всякие там завиральные нейронные сети, а экстренное впиливание новых счетов-фактур в дебри нетиповых конфиг, да объяснение бухам в сотый раз, почему у них на 62 счёте третье субконто красненькое... А это так, из параллельной вселенной, астрономически далёкой от автоматизации учёта с помощью 1С.
(70) автоматизация УЧЕТА это базовый уровень, чё про это говорить. Но я Вас понимаю мне тоже некоторые вещи кажется космос, а потом глядишь все вокруг начали внедрять.
(71) Просто ничего, кроме этого базового уровня, никому нафиг не нужно. НС это "космос" не потому, что продукт не потянет или программисты тупые, а потому, что нужды нет и не будет, готовности к этому никакой. В первую очередь среди тех, кто платит деньги. Попробуйте объяснить - хоть среднему торгашу, хоть гендиру фабрики, нафига это - он не поймёт и денег платить не станет. Разве только действительно, "все вокруг начали" - мода дурная пойдёт, тогда что-то глядишь изменится. Но вряд ли.
Если даже, допустим, логисты не желают видеть воплощённое решение задачи коммивояжёра, а хотят, чтоб "операторы били ручками", а маркетологи орут, что у них отнимают хлеб - ну какая к чертям нейронная сеть, о чём вы?
(72) а к нам наоборот логисты обращались за оптимизацией делали несколько раз на разных алгоритмах, всякие оптимизации в wms тоже. Или например из экзотического - линейный и 2мерный раскрой на муравьином/ генетическом алгоритме для оконной фабрики. Ну и мат.методы в планировании и прогнозировании. Насколько я знаю много кто на 1Ске оптимизирует логистику. Да и вообще, например, сравните wms-ки например лет 10 назад и сейчас и их распостранение - они умнеют и распостраняются больше. Тоже могу сказать о бюджетировании, планированиии. Как это "продавать" я не знаю я не продажник, но факт есть.
Приглашаю в проект:
https://infostart.ru/project/795704/ Необходимо разработать движок для работы со смыслами.
Вот простая задача для понимания направления работы:
Система должна уметь составлять осмысленные предложения из набора слов, например:
- пустыня, озеро, река.
Можно добавлять любые слова, чтобы получилось предложение имеющее смысл.
Например: В пустыне нет озера и реки.
Вот скачал, а как это применять фиг его знает.. на входе цифровые значения... а где кроссовки... шнурки.. футболки... покупатель.
вот есть простая история продаж Покупатель - товар1, товар2... товар10 и период. Как "обучить" чтобы нейросеть "предсказала" что через 10 периодов покупатель купит товар5?
полезность статьи 0. Скачал обработку - а где брать имя файла сети и файл параметров, их структуру? вообщем одна обида злость и разочарование. Бери учебник и разбирайся....
По "Выбрать количество нейронов скрытого слоя" вопрос - как определить что количество нейронов достаточно? анализ какой или просто интуитивно?
По построению - есть какие рекомендации что закладывать на обработку в 1 и 2-й слой? Тот же типовой пример по анализу продаж - что пойдет в первый слой и что во второй?
(83) Для 3-х слойного перцептрона есть рекомендация Число слоев скрытого = корень квадратный из ЧислоВходов*ЧислоВыходов , но это не жесткое правило и подбирать надо на конкретных данных. По поводу 1 или больше скрытых слоев, то это вопрос интересный. Если прогноз продаж представить некой зависимостью (функцией) и эта функция непрерывная в каком то диапазоне, то 3-х слойный (т.е. 1 скрытый) ее может апроксимировать. Но на практике мы не знаем зависимость и ее свойства и даже не знаем факторы которые влияют. Поэтому опять же теоретически 4-х слойным можно апроксимировать любую функцию. Как раз буквально на след. неделе я как раз собрался выложить пример готового отчета с 2мя скрытыми слоями.
(84) это будет здорово. Самое сложное и непонятное как раз понимание что закладывать в 1-й слой, а что во 2-й. Во всяком случае для меня и элементарная "мурзилка" позволит преодолеть этот барьер и попробовать реализовать реальную задачу
"..обучить сеть на то какою скидку дать покупателю чтобы он купил товара максимально исходя из его предыдущих покупок и некоторых специфических для отрасли параметров.". Для расчёта оптимальной скидки корректно на вход подавать?
н1 - сезон
н2 - цена
н3 - количество
Можно ли дообучать ранее сохраненную в файле сеть?
То есть немного переделать обработку таким образом, что бы при начале обучения не создавать новую сеть, а "дополнять" уже загруженную из файла? На новых или старых данных.
Для того, что бы можно было обучать сеть рывками, например в ночное время.
(88) это не так просто, есть определенные методики позволяющие дообучать сеть новыми данными (например только последний слой). Тут это не реализовано. Поэтому тут просто будет обучение с начала на обновленном датасете.
щие дообучать сеть новыми данными (например только последний слой). Тут это не реализовано. Поэтому тут просто будет обучение с начала на обновленном датасете.
А если не новыми данными, а на тех же данных?
К примеру я изменю алгоритм так, что при нажатии на "обучение" будет не новая сеть создаваться, а старая из файла загружаться. А дальше алгоритм пойдет по тому же пути, что и для новой сети. Что в этом случае произойдет? Поскольку я не обладаю знаниями по нейростям и не понимаю сути алгоритма обучения, могу только страшно-дилетантски предположить, что сеть продолжит дополняться новыми элементами и связями.
и речь идёт о том что есть датасет, его начали обучать, но за ночь не успели и решили продолжить в след раз. То ок, да так можно сделать.
Ну да, допустим, к примеру задали 100000 итераиций обучения. За ночь они прошли, мы выкинули это в файл. Вечером опять из файла загрузили сеть в ТЗ(а не создали новую), задали еще 100000 итераций и снова жмякнули "Запустить обучение".
Так можно?
Только на тех же данных во входной таблице и границах? Или все-таки новые данные можно подсунуть?
(92) Да так можно, есть такая штука transfer learning, но применительно к этой задаче - спорный вопрос. Тут же суть та такая: есть некая зависимость которую мы не знаем от факторов которые мы тоже не знаем. Запускаем обучение и сеть начинает на тестовых данных отрабатывать эту зависимость. Теперь надо чтобы она предсказывала - т.е. решала эту зависимость. Допустим изменилась ситуация и зависимость поменялась. Если вы знаете что она поменялась кардинально (например сейчас теплая зима и сноуборды не продаются), но смешивать в один датасет и нормлаьные данные и новые нет смысла, потому что будет что то усредненное. Дообучать тоже нет смысла. Если теплая зима теперь будет всегда то есть смысл по новой обучить. Изменять границы смысла нет. Такое большое количество итераций - тоже смысла нет. Сходимость достигается при меньшем количестве.
о (например сейчас теплая зима и сноуборды не продаются), но смешивать в один датасет и нормлаьные данные и новые нет смысла, потому что будет что то усредненное. Дообучать тоже нет смысла. Если теплая зима теперь будет всегда то есть смысл по новой обучить. Изменять границы смысла нет. Такое большое количество итераций - тоже смысла нет. Сходимость достигается при меньшем количестве.
А если входов 5-10, или может и более, при широких границах и больших объемах обучающего материла в десятки тысяч и более строк? Тоже нет смысла в большом количестве итераций? У меня почему то на малом количестве итераций выдает одни и те же данные при прогнозе, что бы я на входе не подавал. Например в диапазоне 12-13 всегда, хотя границы гораздо шире. При бОльшем же количестве итераций вроде начинает понемногу уже попадать, да и вообще - хотя бы разнородные данные на выходе появляются, диапазон выдаваемых значений на выходе расширяется.
По поводу того примера - (сезон/не сезон) - это же на вход с самого начала можно подавать, поэтому сеть не должна ИЗ-ЗА ЭТОГО подпортится. Дообучение я имею в виду не на изменившийся ситуации, а просто оттого, что новые статистические данные появляются.
Тут интересен еще и сам принцип реализации - возможно использовать ту же таблицу значений сети, а не создавать новую или все-таки нет?
По поводу 1й части вопроса. Ну при таких параметрах - да. Что же у вас там за пример такой? Если сеть обучена и на входы так реагирует то видимо входы не оказывают значимого влияния либо произошло "переобучение", локальные минимумы. Попробуйте оставить меньше входов и датасет уменьшить раз так в 1000.
Обученные веса (ту же таблицу) использовать можно, но не факт что нужно.Это я пытался донести. В примере про зиму я имел ввиду не сезонность, а то что ситуация поменалась кардинально. У нас сейчас самая теплая зима за 130 лет, а так то зимой лыжи и сноуборды в соответствии с сезонностью продаются конечно лучше чем летом
(95) Я так понимаю, что это не переобучение(хотя могу ошибаться). Переобучение, это когда на новых данных плохие результаты, а у меня на тех же данных. То есть ту же таблицу, что и на обучение, я отдаю на прогноз - и получаю что по всем строкам идет почти одно и тоже выходное значение (+- десятые доли единицы). Причем я пока не уверен, но помоему есть зависимость - чем больше входов, тем дольше надо итераций для того, что бы уйти от этого и сеть начала хотя бы РАЗНЫЕ выходные значения выдавать по разным входным, я уж не говорю о точности прогноза, а хотя бы РАЗНЫЕ - и то я уже рад)). А то к примеру болтается в диапазоне 12.8 - 13.3 и без разницы что на входе.
Я только поверхностно понимаю теорию нейронных сетей, поэтому не могу предположит ьдаже с чем связано, просто эксперементирую со входными данными и количеством итараций обучения ,смотрю что получается.
(96) Да, нейросеть к сожалению в отладчике сложно прогнать... Переобучение как раз так и может проявляться - она нашла "локальные минимумы" на 12.8 и решила что такая зависимость - без разницы что на входе - на выходе 12.8)). Ее право. Тут надо экспериментировать с гиперпараметрами - количеством слоев и т.д. Вообще конечно "десятки тысяч строк" - это не для 1С... Подумайте как упростить задачу.