Про красивые слова и небыстрый софт
Oct. 27th, 2011 03:56 pmСходил на тусовку моделировщкиков. Люди принадлежат к миру, в котором обитают сущности вроде
Показывали новую версию моделирующего тула. В принципе, хорошая игрушка. Можно нарисовать зависимость причин и следствий, дать весовые коэффициенты, а потом... Вот с
Вместо того, чтоб выдавать сеть в виде, пригодном для скармливания статистическим, аналитическим и графическим программам, хитрый тул пытается проводить анализ самостоятельно. При этом программа дико тормозит, уходит в нирвану и отчаянно греет процессор. Обсчёт сети с десятью узлами даёт время не только на то, чтоб выпить кофе, но и пообедать. Думаю, в немалой степени из-за аналитического модуля и цена за рабочее место от пол тысячи.
А между тем, компьютер греется и генерит дюжину тысяч правил. Займёт это где-то пол дня. А потом итоги надо будет прогнать на семи тысячах примеров. Вот гадаю, сколько будет длиться проверка и хватит ли четырёх гигов памяти. Можно бы, конечно, пооптимизировать, но смысла нет, так как программа должна отработать один раз.
управления сложностьюи
связанного в сеть мышления(не знаю, какой перевод будет более адекватным, но ссылка так и называется www.VernetztesDenken.de). Ещё рассказали о хитром
Papiercomputer. Немецкое изобретение, которое имеет мало общего как с бумагой, так и с компьютерами и представляет из себя просто способ подсчёта весовых коэффициентов в таблице.
Показывали новую версию моделирующего тула. В принципе, хорошая игрушка. Можно нарисовать зависимость причин и следствий, дать весовые коэффициенты, а потом... Вот с
потомпроблема.
Вместо того, чтоб выдавать сеть в виде, пригодном для скармливания статистическим, аналитическим и графическим программам, хитрый тул пытается проводить анализ самостоятельно. При этом программа дико тормозит, уходит в нирвану и отчаянно греет процессор. Обсчёт сети с десятью узлами даёт время не только на то, чтоб выпить кофе, но и пообедать. Думаю, в немалой степени из-за аналитического модуля и цена за рабочее место от пол тысячи.
А между тем, компьютер греется и генерит дюжину тысяч правил. Займёт это где-то пол дня. А потом итоги надо будет прогнать на семи тысячах примеров. Вот гадаю, сколько будет длиться проверка и хватит ли четырёх гигов памяти. Можно бы, конечно, пооптимизировать, но смысла нет, так как программа должна отработать один раз.
no subject
Date: 2011-10-27 09:58 pm (UTC)боюсь даже интересоваться, что хоть примерно за задача
no subject
Date: 2011-10-27 10:22 pm (UTC)Сформулировал с третьего раза. Проще говоря, поиск в тексте признаков, которые надо будет искать.
no subject
Date: 2011-10-28 12:10 am (UTC)Это закрытая коммерческая работа у вас? Или есть какая-то открытая информация по подходу, методике, алгоритмам?
Интересно, аж жжжжуть :)
no subject
Date: 2011-10-28 05:00 am (UTC)Открытого ничего нет. Мне было влом на конференцию абстракт подавать, а у других чего-то аналогичного я не видел. Да и задачи слишком специфичные.
Хочется чего-то большого и светлого, а получается какая-то мелкое и мутное. В частности на этот раз статистические подходы не работают, так как у клиента в классификации, сделанной вручную, полный бардак.
no subject
Date: 2011-10-28 05:13 am (UTC)no subject
Date: 2011-10-28 07:54 am (UTC)Для меня - понять как сделать автоматический анализ, чего полезного можно извлечь из текстов и как это можно сделать
no subject
Date: 2011-10-28 08:15 am (UTC)Семантический анализ... а вот как это сейчас делается? Я честно не знаю. Ну как навскидку вариант. После спеллчека и грамматической чистки разбираем предложения на утверждения в стиле Gellish? (как промежуточное представление аналог байткода типа того). А потом по промежуточному представлению - анализ этих утверждений. Вероятно, с проверкой по шаблонам. Или rule management engines современные как-то иначе работают? C DOORS никогда в жизни не сталкивался...
Вообще конечно это такая несколько загадочная постановка. Что стоит взять некий requirements management tool (тот же Rational или например Pragnalysis Reqline (http://pragnalysis.com/index.php?option=com_content&view=article&id=111&Itemid=68), рассматриваемый SRS (а по сути ТЗ это SRS) силами персонала перегнать в тулзу, а потом уже анализировать результат перегонки? Я бы наверное скорее по этому пути пошел.
no subject
Date: 2011-10-28 08:37 am (UTC)Впрочем, это никому и не нужно, потому как результат никуда не пристроить.
Задача в том, чтоб найти некие признаки и классифицировать. Плюс связать то, что может или должно быть связано. Ну и найти ошибки. Обычно первое, что происходит после анализа, это отправка текстов обратно на доработку.
no subject
Date: 2011-10-28 09:12 am (UTC)Насчет "не пристроить" это спорно в разрезе "в принципе", но при данном раскладе конечно же увы :(
Собственно о задаче "найти и классифицировать" я и говорю. В моем скромном понимании, задача выглядит пошагово
- причесать spellchecking и грамматику
- разобрать и оттранслировать в промежуточный код (условно Gellish но это так, пальцем в небо)
- промежуточный код (доведенный до формализованных утверждений) анализировать
- соотносить полученные формализованные утверждения с business rules - либо выводить из них requirements транслируя в понятный по RFC язык "must/should/may"
вот как-то так
а без доработки конечно же никак, пока аффтары не начнут хоть мало-мальски системно излагать - никакая автоматика не докопается до сути...
no subject
Date: 2011-10-28 11:55 am (UTC)no subject
Date: 2011-10-28 11:58 am (UTC)no subject
Date: 2011-10-28 12:27 pm (UTC)