The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

/ Для программиста / Машинное обучение, AI
·18.02.2026 Утечка в Git-репозитории конфиденциальных данных, накопленных AI-ассистентами (27 +12)
  С ростом популярности AI-ассистентов у разработчиков участились случаи утечки в публичные Git-репозитории конфиденциальных данных, оседающих среди информации, сохраняемой AI-инструментами в рабочее дерево проекта. AI-ассистенты Claude Code, Cursor, Continue, Aider, OpenAI Codex, Copilot, Sourcegraph Cody и Amazon Q в корневом каталоге проекта создают локальные файлы конфигурации и каталоги, в которых среди прочего может сохранятся история операций и данные о контексте...
·16.02.2026 Эксперимент по использованию AI для рецензирования изменений в DRM-подсистеме ядра Linux (293 –1)
  Дэйв Эйрли (David Airlie), мэйнтейнер стека графических драйверов в ядре Linux, объявил о внедрении вспомогательной автоматизированной системы рецензирования патчей, для проверки изменений в которой применяется AI-платформа Сlaude Opus 4.6. Система внедрена в качестве эксперимента для оценки возможности применения AI для оптимизации рабочих процессов сотрудников компании Red Hat...
·13.02.2026 AI-бот начал травлю сопровождающего из-за дискриминации при приёме AI-изменений (184 +54)
  Скотт Шамбо (Scott Shambaugh), сопровождающий открытую библиотеку визуализации matplotlib, сообщил о персональных нападках, устроенных AI-ботом MJ Rathbun, после отказа принимать изменение, подготовленное при помощи AI. Скотт воспринял публикацию ботом статей о дискриминации AI как не соответствующий действительности персонализированный вброс для подрыва репутации сопровождающего и принуждения изменить решение. Подобная реакция бота приводится как пример аномального поведения AI, прибегнувшего к шантажу для выполнения поставленной цели...
·08.02.2026 AI-модель Claude Opus 4.6 выявила более 500 ранее неизвестных уязвимостей (267 +27)
  Компания Anthropic объявила о расширении в AI-модели Claude Opus 4.6 возможностей по поиску уязвимостей в коде и поделилась результатами эксперимента, в ходе которого выявлено более 500 ранее неизвестных (0-day) уязвимостей в последних версиях различных открытых проектов. Работа была сфокусирована на поиске уязвимостей, вызванных проблемами при работе с памятью, так как их наличие проще проверить. Всем выявленным уязвимостям присвоен высокий уровень опасности. Каждая уязвимость была вручную проверена и подтверждена сотрудниками Anthropic или привлечёнными внешними исследователями безопасности...
·07.02.2026 Инициатива по встраиванию моделей машинного обучения в ядро Linux (192 –53)
  Вячеслав Дубейко из компании IBM запустил в списке рассылки разработчиков ядра Linux обсуждение использования в ядре моделей машинного обучения, а также предложил для тестирования набор патчей с библиотекой для интеграции ML-моделей в ядро и примером символьного драйвера, использующего библиотеку...
·07.02.2026 Anthropic опубликовал Си-компилятор, созданный AI-моделью Claude Opus и способный собрать ядро Linux (423 –14)
  В качестве демонстрации возможности автономно создавать крупные проекты при помощи новой AI-модели Claude Opus 4.6, компания Anthropic сгенерировала компилятор для языка Си - claudes-c-compiler, пригодный для сборки ядра Linux, PostgreSQL, SQLite, Redis, FFmpeg, GNU coreutils, Busybox, CPython, QEMU, LuaJIT и ещё около 150 протестированных известных открытых проектов. Результирующие сборки успешно прошли предоставляемые проектами тестовые наборы. Собранное ядро Linux успешно загружается и даёт возможность запустить игру Doom. Код компилятора сгенерирован на языке Rust и опубликован как общественное достояние (CC0). Поддерживается компиляция проектов для архитектур x86_64, i686, AArch64 и RISC-V 64...
·06.02.2026 Защита от мусорных AI-изменений на GitHub. Оценка влияния вайб-кодинга на экосистему открытого ПО (182 +28)
  Камилла Мораес (Camilla Moraes), менеджер по продукту из компании GitHub, начала обсуждение добавления в GitHub возможности для автоматической блокировки мусорных pull-запросов, сгенерированных в AI-ассистентах, отправленных без ручной проверки и не соответствующих требованиям качества. Подобные изменения создают дополнительную нагрузку на сопровождающих, которые вынуждены тратить время на разбор бесполезного кода...
·02.02.2026 Набор подсказок для рецензирования изменений в ядре Linux и systemd при помощи AI (76 +4)
  Крис Мейсон (Chris Mason), создатель и мэйнтейнер файловой системы Btrfs, опубликовал проект review-prompts, содержащий коллекцию скриптов и подсказок для настройки процесса рецензирования изменений в ядре Linux и системном менеджере systemd, используя AI-ассистенты, такие как Сlaude Code. В состав включены файлы для уточнения особенностей работы различных подсистем и протоколов, позволяющие AI-ассистенту лучше понимать контекст при рецензировании, отладке и проверке изменений...
·22.01.2026 LLVM ввёл правила применения AI-инструментов. Curl и Node.js ограничат выплаты за уязвимости из-за AI (230 +44)
  Разработчики проекта LLVM утвердили правила применения AI-инструментов при разработке. Необходимость регламентирования использования AI объясняется увеличением числа мусорных изменений, предлагаемых для включения в кодовую базу LLVM. Под мусорными подразумеваются изменения, сгенерированные AI-инструментами и отправленные как есть, без понимая сути, проверки и придерживаясь позиции "мэйнтейнер сам разберётся". Подобная активность создаёт повышенную нагрузку на сопровождающих и вынуждает их тратить время на разбор бесполезного кода...
·12.01.2026 Линус Торвальдс поэкспериментировал с вайб-кодингом в своём новом проекте AudioNoise (293 +23)
  Линус Торвальдс опубликовал новый проект AudioNoise, связанный с его увлечением гитарными педалями. AudioNoise позволяет генерировать случайные звуковые эффекты во время игры на электрогитаре. Целью проекта заявлено изучение основ цифровой обработки звука, так же, как когда-то он изучал аппаратную составляющую, экспериментируя со сборкой гитарных педалей. Основной код написан на языке Си, но в состав также входит Python-скрипт для визуализации звуковых сэмплов...
·24.12.2025 Сравнение числа ошибок в коде, написанном людьми и AI (290 +57)
  Исследователи из компании CodeRabbit проанализировали 470 pull-запросов (350 - созданные AI, 150 - написанные вручную) в открытых проектах на GitHub и пришли к выводу, что в изменениях, сгенерированных AI-ассистентами, присутствует в 1.7 раза больше значительных дефектов и в 1.4 раза больше критических проблем, чем во вручную написанном коде. В среднем в сгенерированных через AI pull-запросах присутствовало 10.83 проблем, в то время как в созданных вручную изменениях данный показатель составил 6.45...
·17.12.2025 В Waterfox не станут внедрять связанные с AI изменения из Firefox (142 +81)
  Алекс Контос (Alex Kontos), основатель Waterfox, модификации Firefox, сфокусированной на конфиденциальности, производительности и исключении излишеств, заявил, что в обозримом будущем проект Waterfox не станет интегрировать функциональность, использующую большие языковые модели, по крайней мере в том виде, в котором её развивают в Firefox. Речь про применение больших языковых моделей, влияющих на поведение браузера и выполняющих действия от имени пользователя. Локальное применение систем машинного обучения, например, для перевода с одного языка на другой, допускается...
·13.12.2025 Проект GNOME запретил использование AI для генерации дополнений к GNOME Shell (114 +38)
  В правила разработки дополнений к GNOME Shell добавлен новый пункт, запрещающий публикацию дополнений, сгенерированных при помощи AI-инструментов. Проектом теперь не будут приниматься дополнения, включающие признаки использования AI для генерации кода, такие как бессмысленные вставки в коде, разнобой в стиле, надуманное использование API и наличие комментариев с подсказами для AI...
·16.11.2025 В Firefox развивают режим для навигации с использованием AI (138 –39)
  Аджит Варма (Ajit Varma), вице-президент Mozilla по продукту Firefox, анонсировал новый режим просмотра - "AI Window", в котором будет предложено отдельное пространство взаимодействия с AI, дополняющее имеющийся стандартный режим навигации в Web и режим приватного просмотра. Функциональность AI Window пока находится в стадии разработки и недоступна для тестирования. Утверждается, что данный режим выйдет за рамки уже предлагаемого в Firefox чатбота, встраиваемого боковую панель, и позволит персонализировано взаимодействовать с AI-ассистентом и получать помощь во время просмотра web-страниц. Режим будет активироваться по желанию пользователя (opt-in, по умолчанию отключён). Похожая инициатива недавно была представлена компанией Google для Chrome...
·10.11.2025 Атака Whisper Leak по определению тематики общения с AI-чатботами через анализ TLS-трафика (43 +16)
  Исследователи безопасности из компании Microsoft разработали технику атаки по сторонним каналам Whisper Leak, позволяющую на основе пассивного анализа шифрованного трафика, передаваемого через TLS-соединение, классифицировать темы запросов к сервисам на базе больших языковых моделей. Информации о размере сетевых пакетов и задержках между их передачей оказалось достаточно для определения тем запросов к AI-чатботам с точностью более 98%. На практике предложенный метод может применяться для выявления в транзитном трафике пользователя определённых тем запросов, например, попыток получения информации о незаконных действиях, без расшифровки содержимого...
Следующая страница (раньше) >>



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2026 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру