Индекс де Моргана

Есть такие законы де Моргана, которые в обобщённом виде выглядят так:
не (А1 и А2 и ... и Аk) = (не А1) или (не А2) или ... или (не Аk).
Здесь А1, А2, ..., Аk - любые утверждения, которые могут быть истинными или ложными. Например, при k=3 этот закон в текстовом виде может звучать так.
"Пусть неверно следующее утверждение: Джон брюнет и Майкл брюнет и Ричард брюнет. В таком случае можно утверждать, что Джон не брюнет или Майкл не брюнет или Ричард не брюнет."
Логичная идея состояла в том, чтобы для каждой текстовой нейронки найти минимальное k, при котором она начнёт путаться в ответах, и торжественно поименовать это k её "индексом де Моргана". Почему нет? Я даже достиг первых успехов, обратившись к бесплатной Чат-Гпт 3.5 и обнаружив, что при k=5 она вроде бы выдаёт что-то осмысленное (и даже де Моргана иногда поминает), а при k=6 уже путается в показаниях.
Увы, позже выяснилось, что она ухитряется путаться не только при k=6, но и при k=2, что выглядит несколько шокирующе. То есть не может стабильно выдавать правильные ответы на такой не очень-то сложный вопрос:
"Давай представим, что неверно следующее утверждение: Джон брюнет и Майкл брюнет. Можно ли в таком случае утверждать, что Джон не брюнет? Пожалуйста, ответь да или нет".
В общем, затея провалилась. Так мы, товарищи,

|
</> |