В статье рассматривается проблема оптимизации производительности систем искусственного интеллекта в реальном времени. Предложена гибридная архитектура мониторинга, сочетающая традиционные методы с машинным обучением. Проведено экспериментальное исследование, показавшее повышение производительности на 25-30% и снижение затрат на инфраструктуру на 25%. Результаты могут применяться для масштабирования существующих ИИ-систем.
Приведены сведения о содействии проектам развития интеллектуальной экономики, оснащенной Искусственными Интеллектами. Статья призвана способствовать вдохновению к инвестированию в исследования и приложения Искусственного Интеллекта. Актуализирована диалектика явления «Искусственный интеллект и антропоморфизм», введен и обоснован постулат «Искусственный Интеллект – участник духовного производства». Предпринята презентация терминов «Интеллект – роботизированные производства», «Антропоморфизм психотипов искусственного интеллекта», «Психотип искусственного интеллекта».
Появление нейросетей, способных достаточно качественно имитировать творческий процесс, писать грамотные и связные тексты любого объема на заданную тему, создавать правдоподобные картинки и библиографические списки не могло пройти мимо внимания студентов. Использование технологий искусственного интеллекта для экономии времени за счет быстрого решения рутинных заданий, написания обзорных статей, рефератов, курсовых работ выглядит очень заманчивым, но нужно учитывать возможные риски и ограничения, свойственные этому инструменту.
В статье раскрывается суть повышения компетенций воспитателей ДОО; показан образ педагога, складывающийся в глазах родителей, администрации детского сада и детей. Выделены направления самообразования педагога ДОО, а также дана характеристика коучинга среди педагогов дошкольного образования.
Автор рассматривает перспективы интеграции генеративного искусственного интеллекта в процессы развития арт-индустрии и проблему вытеснения художественных произведений результатами работы нейронных сетей. В качестве эмпирического материала представлены результаты создания изображений при помощи инструментов «Шедеврум», «Midjourney», «Lexica». Автор проводит тщательный анализ полученного материала и интерполирует полученные результаты на актуальные тенденции и подходы в современной тату-индустрии.
Статья посвящена некоторым аспектам внедрения искусственного интеллекта в процесс принятия управленческих решений в менеджмент организации. Искусственный интеллект (ИИ) на сегодняшний день является неотъемлемым атрибутом современного информационного времени. С помощью возможностей применения ИИ организации могут легче внедрять в сферу своей деятельности новые проекты и оптимизировать существующие бизнес-процессы, повышая тем самым их производительность и эффективность.
Отмечается, что активное использование спутниковых снимков, географических информационных систем, методов интеллектуального анализа данных привело к появлению новых методов оценки опасности наводнений, которые обычно превосходят более традиционные подходы. Указывается, что исходными материалами для построения предикторов и оценки опасности затопления послужили данные дистанционного зондирования, полученные из следующих открытых источников: Landsat 8-OLI, снимки ASTER GDEM. Достаточная точность метода аналитической иерархии и возможность интеграции с географическими информационными системами определила широкое использование подобных подходов для оценки риска чрезвычайных ситуаций природного происхождения. Доказывается, что геопространственные технологии обеспечивают наилучший потенциал для анализа и предоставления результатов, необходимых для оперативного и эффективного принятия решений о наводнениях. Предполагается, что карты риска наводнений могут быть эффективными инструментами для снижения ущерба от природных стихий.
Популярные сегодня приложения искусственного интеллекта (далее — ИИ) являются лишь демонстрацией всего потенциала ИИ в деловом мире. Искусственный интеллект находится на грани того, чтобы взять на себя общую роль в управлении компаниями, поскольку он неуклонно становится инструментом поддержки административной работы и принятия решений директорами и менеджерами. Если назначение роботизированного директора все еще кажется научной фантастикой, то широкое использование ИИ в корпоративном управлении доказало, что оно рационализирует процесс принятия решений. В целом корпоративное законодательство по всему миру по-прежнему основывается исключительно на принятии решений человеком и отрицает роль технологий в корпоративном управлении, что приводит к неэффективным стратегиям регулирования в отношении систем ИИ, наделенных управленческими полномочиями. В результате существует неопределенность в отношении юридической допустимости и правовых последствий внедрения ИИ в корпоративной сфере, что может отбить у корпораций желание внедрять ИИ, даже несмотря на то, что технология, несомненно, оптимизирует процесс ведения бизнеса. Таким образом, в данной статье предпринята попытка подчеркнуть растущую важность ИИ в корпоративном управлении на примере разработки нормативно-правовой базы и общих положений о правовом положении ИИ. В статье проводится правовой анализ потенциальной роли ИИ в юридической работе корпоративного юриста, уделяя внимание потенциальным рискам и способам их минимизации.
В статье проанализированы возможность использования искусственного интеллекта в неправомерном доступе к компьютерной информации, проблемы квалификации данного преступления, а также необходимость введения новой статьи в Уголовный кодекс Российской Федерации.
В статье приведен анализ исходной выборки данных в рамках решения задачи многоклассовой классификации мутаций генома человека. На основе представленного анализа формируются рекомендации относительно моделей машинного обучения, способных решать представленную задачу. Кроме этого затрагивается общая проблематика исследований, связанных с секвенированием раковой опухоли.
В статье рассматривается вопрос о терминологической корректности понятия “генеративный искусственный интеллект”. Дискуссия позволяет сделать вывод о том, что преждевременно утверждать о замене человека GPT-ассистентами (Generative Pre-trained Transformer Assistant - GPTA) в среде социокультурной электронной коммуникации. Персонологический функционализм, обосновывающий замену людей машинами, опирается на психофункционализм Неда Блока, доказывающего необходимость психологизации машинного функционализма путем введения “смысла” в продукты прохождения оригинального теста Тьюринга. Для персонологического функционализма минимально необходимыми составляющими тьюрингового теста являются “творчество” и “смысл”. В работе показано, почему GPTA не проходят креативного теста. Для демонстрации неспособности пройти тьюринговый текст на осмысленность дорабатывается машина Блока путем совмещения нейрокомпьютерной (1978 г.) и символьной версий (1981 г.). Для нового расширенного теста Блока сохраняется и усиливается аргументация предыдущих версий: машины типа GPTA не способны исполнять ни роли психологического функционализма - в частности, ни персонологического функционализма - в общем.
In a dialog with large language models (LLM) there is a coincidence of the addressee and addressee of the message, so such a dialog can be called autocommunication. A neural network can only answer a question that has a formulation. The question is formulated by the one who asks it, i. e. a human being. Human activity in dialog with neural networks provokes thoughts about the nature of such dialog. Composing prompts is one of the most creative parts of dialog with neural networks. But it is worth noting that a neural network is often better at composing prompts than a human. Does this mean that humans need to develop their questioning skills? In LLM-based dialog systems, the main value to the user is the ability to clarify and structure their own thoughts. The structuring of thoughts happens through questioning, through formulating and clarifying questions. Asking the right question is practically answering that question. Thus, thanks to autocommunication, the development, transformation, and restructuring of the human “I” itself takes place. Dialogue with large linguistic models acts as a discursive practice that allows people to formulate their own thoughts and transform their self through autocommunication. It is worth noting that for this kind of dialog, a certain image of the audience is normative or determinative of the material that can be produced in response to a given question. This is because the data for model training is provided by people, even if they do not and have never thought about it. Thus, a dialogic relationship develops between the generated text and the questioning audience that develops all participants in the communication.