Аннотация:Статья посвящена вопросу наличия мышления и понимания у Chat-GPT в частности и искусственного интеллекта вообще. Учитывая инновационность и потенциал больших языковых моделей, вначале автор анализирует возможные вызовы и угрозы, которые могут исходить от стремительно развивающейся технологии. Однако рассуждения относительно рисков Chat-GPT в конечном счете «выходят» на вопрос о наличии у него мышления и понимания. Для прояснения этого вопроса автор обратился с ним к самому Chat-GPT, ответ которого напоминает скорее мысленный эксперимент «Китайская комната».Такой результат делает необходимым постановку вопроса о специфике человеческого мышления/понимания. В статье показано, что те исследователи, которые наделяют ИИ (Chat-GPT) возможностью мышления/понимания, связывают эти способности с умением корректно пользоваться словами. Соответственно, в таком случае ИИ может мыслить/понимать и эти процессы у него никак принципиально не отличаются от человеческих. Однако автор солидаризируется с противоположным подходом и обосновывает позицию, согласно которой мышление/понимание не сводится к умению пользоваться словами. Для человека понимание – это не только логическая операция, но способ бытия в мире. В акте понимания для человека также всегда присутствует онтологический акт утверждения сущего.В связи с этим делается вывод, что, по крайней мере, по состоянию на сегодняшний день понимание в человеческом смысле для Chat-GPT (ИИ) недоступно не по техническим, а по концептуальным причинам.