Автомат с линейной логикой, неспособен решать многофункциональные задачи с нелинейной переменной и ассоциативной логикой, и тем более самостоятельно определять приоритеты и цели. Тут напрашивается именно ИИ со стратегической сверхзадачей и рамочной свободой выбора тактики. Т.е - многофакторный разум не обусловленный программой и с обязательной функцией самообучения. Пока это невозможно принципиально. Но уровень самоусложняющихся программ, возможно скоро превысит уровень насекомого, а принцип самообучения сделает вопрос возникновении ИИ, лишь вопросом создания под него железа и времени.
Это и будет горизонтом существования человека)
Без морали, биологичности и ограничений мощности, голый интеллект = сингулярен. Т. е. - на каком то этапе сработает закон = "контролировать сложную систему, может только система на порядок сложней". Следовательно мы не сможем ни предсказывать ни контролировать её.
И этот закон, будет последним)
Поэтому мне кажется лишним применять термин ИИ, применительно к тупому автомату, и тем более надеятся на появления автономных (в том числе по решению на открытие огня) боевых роботов по крайней мере в пределах ещё пары поколений.) А -
quote:
достаточно чтобы у "машины" с ИИ "разрыв шаблона" не случался при возникновении внештатной ситуации
если только это, так и бензокосилку можно направить на врага оснастив её парой инфра\ акустических датчиков. Но у неё как и у бомбы, выбора уже небудет если она окажется не в штабе противника а например в детсаду.)
Впрочем это всё -необязательное отвлечение)
----------
Пользуйтесь лесом мужики!
Лес наш молчаливый друг)