Ограничения онтологизации

Из дискуссии у http://serge-gorshkov.livejournal.com/43104.html

YC: «у систем, построенных на онтологиях изначально присутствует ограничение на широту понятийного охвата. Они domain-specific, найди-подай-принеси. Сомнительно, что рулы для/на upper ontologies будут иметь какую-то адекватность. Это просто не для онтологий.»

SG: «тезис о наличии ограничений требует доказательства. бОльшая часть ограничений все-таки находится в головах модельеров, а не в инструментах. Особенно если говорится об ограничениях именно понятийных. Есть ли какие-то понятия, которые нельзя выразить в онтологии, но можно выразить другими средствами?»

YC: »

  1. Элементы онтологий берутся из языка и отражают язык, причём сейчас — язык простой и картину мира простую. То что Вы перечислили, как достижения — это примитивы мышления, согласитесь. Как работать с внеязыковыми конструктами? Это с теми, которые можно фиксировать феноментально и концептуально, но которые по тем или иным причинам в инвентарный список речи не попадают. Сюда же — вариации семантик, коннотации, тропы, омонимия и синонимия, как средство передачи смысла, в рамках одной описательной единицы. Онтология умрёт на входе в такую задачу.
  2. Модели с эшелонированной рефлексией, контрарефлексивные. Каждый рефлексивный поток/агент в общем случае работает на своей онтологии. Их нужно совмещать. OWL? Noooo.
  3. Вообще, любые мультионтологические ситуации. Строить upper ontology — гиблое дело, медиаторы типа DOL — не выводят за рамки проблемы. Метаонтология практически упирается в те же проблемы, только на другом уровне абстракции.
  4. Психика (и киберпсихика). Тут всё настолько динамично, что онтологический подход с его разделением на design & run time (TBox и ABox) просто не успеют ничего поймать.
  5. Ситуации со смешением эдо- и мета- уровней, т.е. когда производится попытка модифицировать конфигурацию понятия на лету.
  6. Ну и last but not least — линейная сложность моделей. Говорят, машины помогают. Но моделирует ещё человек, которые сложные и большие иерархии в голове плохо умещает. Это плохо масштабируется.

Я не критикую OWL. Всё на своём месте должно быть. Работает, и хорошо. Но речь же про искусственный интеллект на OWL. А когнитивные архитектуры AGI должны уметь отражать сложные ситуации и решать сложные задачи, тут на среднеобразованного модельера никто не ориентируется. Поэтому я и говорю, что у онтологий есть свой потолок сложности. Дальше нужны другие подоходы, деконструкция понятий и более компактные концептуальные и масштабируем схемы организации позиций модели. Из намёков на такой подход могу вспомнить Graziano c attention schema theory. У него там несколько другое направление, но как референс для подтверждения того, что неонтологические модели могут быть не только коннекционистскими, может подойти. Понятие, модель как [позиционная] реконструкция схемы внимания.»

Добавить комментарий