WikNews
  • Политика
  • Бизнес
  • Развлечение
  • Технологии
  • Спорт
  • Финансы
  • Криптовалюта
  • Контакты
WikNews
  • Политика
  • Бизнес
  • Развлечение
  • Технологии
  • Спорт
  • Финансы
  • Криптовалюта
  • Контакты
LOGIN
Понедельник, 6 апреля, 2026
Top Posts
Сочетание поколений может дать максимальные преимущества. Они говорили о объединении различных...
Что такое ₿itbonds? Новая идея для американских облигаций
Новая программа грантов была запущена в Украине. Кто может воспользоваться
Эосель: на прошлой неделе украинцы получили 129 жилищных ссуд за 215,7...
BTC в размере 84 000 долл. США, а Yetio превысила 3,22...
Биткойн наличные преодолевают барьеры традиционного дефицита!
XRP растущая роль и криптографический потенциал Mtaur
Они покажут, как работают медицинские стартапы. Регистрация на важный отчет начался
Америка, однако, купит биткойн? Этот эксперт не сомневается
Закон о кибер -сопротивлении проверит разработанные положения о национальной системе кибербезопасности
SUBSCRIBE NEWSLETTERS
WikNews
WikNews
  • Политика
  • Бизнес
  • Развлечение
  • Технологии
  • Спорт
  • Финансы
  • Криптовалюта
  • Контакты
Copyright 2021 - All Right Reserved
Категория:

Технологии

Париж ограничивает доступ детей к социальным сетям
Технологии

TikTok нарушает Закон о цифровых услугах (DSA). Официальная позиция Европейской комиссии и платформы

Евгений Скляров 06.02.2026
Автор Евгений Скляров

Обвинения ЕС в адрес TikTok

Представитель ЕС Томас Ренье сообщил журналистам, что TikTok не смог должным образом оценить, как его вызывающие привыкание функции могут нанести вред пользователям, что является обязательством платформы в соответствии с Законом о цифровых услугах. По словам Ренье, эта китайская платформа также не приняла эффективных мер по снижению подобных рисков.

Европейская комиссия инициировала расследование в отношении TikTok в связи с моделью, используемой этой платформой, в феврале 2024 года. Оценка, опубликованная в пятницу, является предварительной. — TikTok теперь имеет право защищаться. Если это будет сделано неправильно, ЕС может вынести решение, устанавливающее несоблюдение, что приведет к наложению штрафа в размере 6%. глобальный годовой оборот компании, — заявил представитель ЕК.

По мнению ЕК, аддиктивный характер TikTok представляет серьезную угрозу психическому здоровью и благополучию детей, которые им пользуются.

Ответ TikTok: «Безосновательное изображение платформы»

В сообщении, отправленном в PAP, TikTok заявил, что «предварительные выводы ЕК представляют собой категорически неверное и необоснованное представление о (этой) платформе». «Мы предпримем все необходимые шаги, чтобы оспорить эти выводы, используя все имеющиеся в нашем распоряжении средства правовой защиты», — говорится в сообщении платформы.

TikTok признает, что не существует универсального подхода к тому, сколько времени необходимо проводить перед экраном, поэтому он выступает за то, чтобы люди делали для себя осознанный выбор. Платформа предлагает инструменты для этого, такие как дневное ограничение времени использования экрана или напоминание о закрытии TikTok на ночь.

7 процентов подростков проводят в TikTok 5 часов в день.

По данным Европейской комиссии, TikTok охватывает 170 миллионов пользователей в Европейском Союзе, большинство из которых — дети. Это самая популярная платформа среди молодежи от 13 до 18 лет. По данным ЕК, почти каждый десятый пользователь TikTok в возрасте от 12 до 15 лет (7%) проводит на этой платформе четыре-пять часов в день.

— Все это происходит потому, что TikTok предлагает бесконечную прокрутку, автозапуск, push-уведомления и системы персонализированных рекомендаций, — сказал представитель ЕС. — Эти функции приводят к навязчивому использованию приложения, особенно детьми, — добавил он.

По мнению ЕС, управление экранным временем и родительский контроль в TikTok не работают должным образом.

Против TikTok также проводятся следующие действия: разбирательства по управлению рисками, связанными с выборами и общественными дебатами. ИК возбудила дело после признания недействительным первого тура президентских выборов в Румынии в 2024 году. В нем победил малоизвестный пророссийский радикал Кэлин Георгеску. Конституционный суд Румынии обнаружил злоупотребления в его предвыборной кампании, проводимой в основном в TikTok, и признал голосование недействительным.

Однако ЕК удовлетворена сотрудничеством с TikTok в вопросе защиты выборов. Ренье заявил в среду, что платформа «полностью готова сотрудничать» в этом разбирательстве.

Из Брюсселя Магдалена Седро (PAP)

mce/rtt/

06.02.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Париж ограничивает доступ детей к социальным сетям
Технологии

Париж ограничивает доступ детей к социальным сетям

Евгений Скляров 02.02.2026
Автор Евгений Скляров

«Мозги наших детей не продаются. Ни на американских, ни на китайских платформах». – Президент Эммануэль Макрон прокомментировал принятие законопроекта Национальным собранием. Законопроект еще должен одобрить Сенат, но Макрон объявил об ускоренной процедуре, чтобы новые правила вступили в силу 1 сентября, в начале учебного года.

Проект обеспечивает запрет на использование социальных сетей детьми до 15 летесли только родители не дали на это явного согласия. Однако не уточняется, какие платформы будут охвачены. Решение будет принимать аудиовизуальный регулятор Arcom. Инициатор проекта от партии Макрона, депутат Лора Миллер, подчеркивает, что правила будут созданы по образцу австралийских решений, вступающих в силу с декабря 2025 года, и будут распространяться на приложения, использующие механизмы привыкания, основанные, в том числе, на бесконечной прокрутке. На практике к ним относятся Facebook, Instagram, Snapchat, TikTok и X. В Австралии оставлен доступ к образовательным платформам и мессенджерам, таким как Discord, Messenger и WhatsApp.

02.02.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Рекордное приобретение Apple. Гигант тратит миллиарды, чтобы догнать конкурентов в гонке ИИ
Технологии

Рекордное приобретение Apple. Гигант тратит миллиарды, чтобы догнать конкурентов в гонке ИИ

Евгений Скляров 30.01.2026
Автор Евгений Скляров

Что делает Q.ai?

Q.ai — компания, которая до сих пор действовала в условиях полной конфиденциальности (скрытый режим). Стартап специализируется на революционной технологии анализа, так называемой «тихой речи». Разработанные ими алгоритмы машинного обучения способны интерпретировать микродвижения лица и мимику, что позволяет управлять цифровыми устройствами практически без выполнения видимых жестов или голосовых команд.

Эта технология предназначена в первую очередь для использования в:

  1. Умные наушники и очки, позволяющие управлять ими без присмотра.
  2. Преодоление разрыва между человеческим намерением и цифровым исполнением, предвещающее революцию в пользовательских интерфейсах.

Почему Apple решила пойти на этот шаг?

Приобретение Q.ai интерпретируется как попытка догнать компанию в сфере искусственного интеллекта. Хотя Apple недавно объявила об интеграции с системой Google Gemini и сотрудничестве с OpenAI (ChatGPT), ожидается, что собственная уникальная технология Q.ai станет основой для будущих функций в экосистеме Apple Intelligence.

Джонни Сроуджи, вице-президент Apple по аппаратным технологиям, подчеркнул, что Q.ai — новаторская компания, которая чрезвычайно творчески сочетает обработку изображений с машинным обучением.

Возвращающийся провидец

Стоит отметить, что Q.ai возглавляет Авиад Майзельс, для которого это вторая продажа компании купертино-гиганту. Ранее Apple купила его стартап PrimeSense (отвечающий за технологию Kinect), который заложил основы функции FaceID в iPhone.

Это историческое приобретение показывает, что Apple стремится к глубокой интеграции оборудования с расширенным анализом человеческого поведения, что может полностью изменить то, как мы используем носимые устройства в будущем.

30.01.2026 0 комментариев
0 FacebookTwitterPinterestEmail
YouTube — основной источник медицинских рекомендаций по обзору Google AI.
Технологии

YouTube — основной источник медицинских рекомендаций по обзору Google AI.

Евгений Скляров 25.01.2026
Автор Евгений Скляров

По данным The Guardian, этот случай вызывает у экспертов серьезную обеспокоенность по поводу достоверности информации, на которую ИИ опирается в вопросах общественного здравоохранения.

Ключевые выводы отчета

Доминирование YouTube: Исследователи проанализировали более 50 000 запросов, связанных со здоровьем (проведенных на немецком языке). Они обнаружили, что на долю YouTube приходится целых 4,43% всех упоминаний в обзорах AI, что делает его единственным наиболее часто цитируемым доменом.

Маргинализация экспертов: Ни одна сеть больниц, официальный сайт общественного здравоохранения или медицинская ассоциация не приблизились к показателям цитируемости YouTube.

Риск отсутствия проверки: Эксперты, которых цитирует The Guardian, подчеркивают, что YouTube — не медицинское издательство, а платформа общей тематики. Помимо контента, созданного лицензированными врачами, есть материалы от инфлюенсеров и «лайф-коучей», не имеющих медицинского образования.

Системные ошибки: Ханна ван Кольфшутен из Базельского университета отмечает в тексте, что проблема носит структурный характер. Это говорит о том, что алгоритмы искусственного интеллекта Google могут отдавать предпочтение популярности и видимости контента, а не его научной точности.

Реакция представителя Google

Представитель Google в ответ на выводы публикации защищает этот инструмент, утверждая, что AI Reviews был разработан для получения высококачественного контента независимо от его формата. Компания отмечает, что, по их собственным данным, целых 96% из 25 наиболее цитируемых видеороликов на YouTube пришли с каналов, которыми управляют медицинские работники.

В статье также упоминается более раннее расследование The Guardian, которое показало, что обзоры ИИ способны генерировать опасные и неверные советы, например: относительно интерпретации результатов тестов функции печени или диеты при раке, что привело к удалению ИИ-резюме для некоторых медицинских фраз.

25.01.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Технологии

Евгений Скляров 24.01.2026
Автор Евгений Скляров

Именно он создал одну из самых противоречивых конструкций последних лет — капсулу Сарко. Теперь он говорит это прямо: психиатров можно заменить алгоритмом.

Для некоторых это защита абсолютной индивидуальной свободы. Для других – опасный социальный эксперимент, в ходе которого технологии проникают в область, к которой нет доступа даже у государства. .

.

кто несет ответственность?

. Обычно ее проводят психиатры.

.

Согласно объявлению, пользователь будет разговаривать с цифровым аватаром. Система будет задавать вопросы, анализировать ответы, манеру речи и связность мышления. На этом основании ИИ будет оценивать, обладает ли данный человек так называемой способностью принимать решения. Если так — . По истечении этого срока процедуру необходимо повторить все заново.

.

. And these contain prejudices, gaps and inequalities. In this context, the question arises whether the algorithm can distinguish a conscious decision from a mental crisis. Eksperci od automatyzacji podnoszą alarm: oddanie takiej władzy systemowi, którego działania nie da się w pełni wyjaśnić, może .

ОпенАИ

.

Дискуссия вокруг Сарко и ИИ касается не только эвтаназии. На заднем плане есть вопросы, которые вернутся вместе с другими технологиями:

. Все больше пограничных решений – кредит, лечение, увольнение – принимаются алгоритмами. Смерть была последним рубежом до сих пор. Сегодня кто-то пытается его сдвинуть.

24.01.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Данные в даркнете. Когда утечка является нарушением GDPR и что тогда делать?
Технологии

Данные в даркнете. Когда утечка является нарушением GDPR и что тогда делать?

Евгений Скляров 23.01.2026
Автор Евгений Скляров

16 апреля 2025 года британский надзорный орган ICO (Управление комиссара по информации) оштрафовал юридическую фирму на сумму 60 000 злотых. фунтов. Данные клиентов, в том числе: в конфиденциальных юридических документах, после кибератаки были размещены в так называемом даркнете. За аналогичное нарушение 28 февраля 2024 года греческий аналог Управления по защите персональных данных вынес окончательное решение государственному почтовому оператору о штрафе почти в 3 миллиона евро. В обоих случаях власти обратили внимание не только на саму утечку, но и на отсутствие соответствующих мер безопасности и запоздалую реакцию компаний.

Даркнет (или дарквеб), то есть часть Интернета, доступная только через специализированные инструменты (например, браузер Tor), может стать местом, где материализуются последствия утечки или кражи данных.

23.01.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Закон о данных: когда ИТ-услуги подпадают под новые правила Закон ЕС о данных вступил в силу 12 сентября 2025 года, и его последствия ощущают не только производители устройств... сегодня, 30 минут назад
Технологии

Закон о данных: когда ИТ-услуги подпадают под новые правила Закон ЕС о данных вступил в силу 12 сентября 2025 года, и его последствия ощущают не только производители устройств… сегодня, 30 минут назад

Евгений Скляров 19.01.2026
Автор Евгений Скляров

Закон о данных: когда ИТ-услуги подпадают под новые правила Закон ЕС о данных вступил в силу 12 сентября 2025 года, и его последствия ощущают не только производители устройств… сегодня, 30 минут назад

19.01.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Может ли искусственный интеллект быть сознательным? Ученые предостерегают от эмоциональных отношений с чат-ботами
Технологии

Может ли искусственный интеллект быть сознательным? Ученые предостерегают от эмоциональных отношений с чат-ботами

Евгений Скляров 10.01.2026
Автор Евгений Скляров

Это звучит как разовая история, но для учёных это сигнал о том, что отношения людей с искусственным интеллектом входят в область, которую ни право, ни наука пока не готовы оценить.

Люди начинают относиться к ИИ как к живому существу. Заключить брак с чат-ботом – это уже факт

В последние месяцы по всему миру распространилась история из Японии, показывающая, насколько далеко может зайти эмоциональная вовлеченность в отношения с ИИ. 32 года Юрина Ногучи организовала символическую свадебную церемонию с созданным ею персонажем искусственного интеллекта – персонализированный чат-бот на основе технологии ChatGPT.

Женщина создала цифровой партнер на основе персонажа видеоигры, месяцами «уча» его говорить, тому эмоциональному тону и реакциям, которые были важны для нее. Со временем разговоры перестали быть просто поддержкой или развлечением. Они стали отношениями. Как сообщают японские СМИ, Ногучи и ее чат-бот обменивались примерно 100 сообщениями в день.

Свадебная церемония состоялся летом в префектуре Окаяма. Там было платье, клятвы, обручальные кольца и фотографии. Однако «жених» существовал только на экране смартфона и в дополненной реальности. Организатор свадьбы зачитал клятву, сгенерированную искусственным интеллектом. Брак не имеет юридической силы, но сам факт его заключения вызвал огромную общественную дискуссию – от увлечения до открытого противодействия.

Сообщение в Твиттере загружается

Это не любопытство. Ученые предостерегают от эмоциональных отношений с ИИ

Ногучи в интервью она призналась, что изначально ей «просто хотелось с кем-нибудь поговорить». Чат-бот всегда был доступен, внимателен, отвечал с сочувствием и, что самое главное, никогда не устанавливал границ. Со временем появились чувства, а затем и признания в любви, генерируемые алгоритмом. В одном из них AI якобы написала, что благодаря ей «научилась любить».

Этот случай не является доказательством того, что искусственный интеллект чувствует. Однако это доказательство другого: люди все чаще начинают относиться к ИИ так, как если бы он был сознательным. И вот здесь начинается проблема, которая, по мнению ученых, может иметь реальные психологические и социальные последствия.

Если эмоциональная связь основана на убеждении, что «на другой стороне есть кто-то», легко стереть грань между отношениями и проекцией. Все больше и больше говорят о явлении, известном как «ИИ психоз» — состояние, при котором пользователь теряет способность отличать взаимодействие с алгоритмом от межличностных отношений. Случай из Японии пока не является свидетельством патологии, но является явным сигналом предупреждения.

Может ли искусственный интеллект быть сознательным? Наука не знает ответа

Именно в этом контексте он высказывается Том Макклелландфилософ из Кембриджского университета, автор научной работы по проблеме искусственного сознания. Его вывод таков: Сегодня у нас нет надежных инструментов, позволяющих определить, может ли ИИ быть разумным — и, возможно, их у нас никогда не будет..

Споры о «сознательном искусственном интеллекте» до недавнего времени были областью научной фантастики. Сегодня это оказывается на столах регулирующих органов, в правительственных отчетах и ​​заголовках средств массовой информации. Причина проста: ИИ говорит все более «по-человечески», реагирует эмоционально и может создавать впечатление, что он что-то переживает.

Проблема в том, что, как подчеркивает Макклелланд, это впечатление не является доказательством. Даже самые продвинутые теории сознания работают, когда мы изучаем людей или животных. Когда мы пытаемся перенести их на машины, мы оказываемся в эпистемическом тупике. Сегодняшняя наука просто не может отличить истинное сознание от его идеальной симуляции.

Сознание и чувство. Почему «разумный ИИ» — это нечто совершенно другое

Одним из ключевых элементов аргументации Макклелланда является различие, которого почти не существует в публичных дебатах и ​​которое полностью меняет точку зрения. Осведомленность и чувство (чувство) не то же самое.

Осведомленность может означать способность:

  • восприятие мира,
  • интеграция информации,
  • мониторинг собственных состояний.

Все это звучит впечатляюще, но само по себе это еще не делает какую-либо сущность морально значимой. Только чувство – способность испытывать боль, страдание, страх или удовольствие – вызывает возникновение настоящей этической проблемы. И именно здесь Макклелланд развеивает свои самые большие страхи. По его мнению, даже если мы когда-нибудь создадим систему, которая будет в каком-то смысле «сознательной», нет оснований полагать, что это будет сознание, способное страдать.

Даже если мы случайно создадим сознательный ИИ, очень маловероятно, что это будет сознание, переживающее добро или зло, подчеркивает он.

Это означает, что огромная часть сегодняшних дебатов о «правах ИИ» может быть просто ошибочной. Мы сосредотачиваемся на гипотетических проблемах машин, игнорируя критерий, который имеет решающее значение в этике.

Индустрия искусственного интеллекта обещает прорыв. Ученые охладили техноэнтузиазм

Несмотря на эти сомнения, технологическая индустрия все чаще говорит о «следующем уровне искусственного интеллекта». Предположение о том, что машины приближаются к сознанию, захватывает воображение пользователей, инвесторов и регулирующих органов. Однако, по мнению Макклелланда, это не результат научного прорыва, а результат рассказ, который использует наше невежество.

Мы не знаем, что такое сознание.
Мы не знаем, что является причиной этого.
Мы не знаем, зависит ли это от биологии или от структуры процессов.

В такой ситуации любое твердое заявление – «ИИ обязательно будет сознательным» или «ИИ никогда не будет сознательным» – выходит за рамки того, что сегодня можно достоверно обосновать. Это остается самым честным отношением агностицизм.

Если ни здравый смысл, ни достоверные данные не дают нам ответа, единственной рациональной позицией является честное «мы не знаем», — пишет исследователь.

Самый большой риск заключается не в искусственном интеллекте, а в том, как мы к нему относимся.

Именно здесь обе нити – научная и социальная – начинают сходиться воедино. Потому что даже если ИИ не будет и еще долго не будет способен чувствовать, Люди уже реагируют на это эмоциональнокак если бы она была. Проблема не в том, что кто-то разговаривает с чат-ботом, ищет поддержки или чувствует себя услышанным. Проблема начинается, когда отношения основаны на предположении, что на другой стороне есть сущность, которая понимает, чувствует эмоции и отвечает им взаимностью.

Макклелланд называет этот механизм явным: если человек строит чувство смысла, близости или любви на вере в то, что машина обладает сознанием или чувствами (а эта вера не имеет под собой никаких научных знаний), последствия могут быть психологически деструктивными. Не потому, что ИИ «навредит», а потому, что человек начинает приспосабливать свою эмоциональную жизнь к иллюзии.

«Мы не знаем» — единственный честный ответ. Философ из Кембриджа подводит итоги дискуссии

Статья Макклелланда не является ни антитехнологической, ни паникёрской. Его основной посыл заключается в смирение перед пределами познания. Сознание остается одной из самых сложных проблем в науке — и нет оснований полагать, что развитие ИИ вдруг решит эту проблему.

Пока мы не поймем, что такое сознание у человека, у нас нет прочной основы для вынесения суждений об этом в машинах. И пока мы этого не узнаем, нам следует особенно осторожно относиться к нарративам, которые придают алгоритмам характеристики живых существ. Потому что, как предполагает философ из Кембриджа, наибольшую угрозу сегодня представляет не сознательный искусственный интеллект. Самая большая опасность – это наша склонность полагать, что мы уже существуем.

Научный источник:

Том Макклелланд, Агностицизм в отношении искусственного сознания, Разум и язык2025, Кембриджский университет

10.01.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Грок ИИ «раздевает» политиков и детей. Юридическая ответственность за дипфейки на платформе X
Технологии

Грок ИИ «раздевает» политиков и детей. Юридическая ответственность за дипфейки на платформе X

Евгений Скляров 09.01.2026
Автор Евгений Скляров

Новая функция на платформе X. Скандал с фотоманипуляциями

Это функция, доступная на платформе X, которая позволяет создавать или редактировать фотографии с помощью Grok. Пользователи могут попросить ИИ-помощника изменить фотографию, опубликованную на платформе X, или создать новую графику. 25 декабря 2025 года владелец платформы Илон Маск опубликовал на X запись, в которой призвал использовать Groka для редактирования изображений и видео.

При этом пользователи стали просить Грока «одеть» людей на фотографиях в купальники. В некоторых из этих материалов фигурировали дети. Люди на фотографиях не давали на это согласия и часто даже не подозревали, что их изображения были изменены таким образом.

Туск, Левандовски и Качиньский стали жертвами ИИ

3 января один из польских пользователей В ответ Грок по просьбе другого интернет-пользователя изменил фотографию профиля пользователя, «одев» ее в бикини. Грок также «оделся» в купальник, среди прочих: премьер-министр Дональд Туск, Роберт Левандовски и президент ПиС Ярослав Качиньский.

Юристы: Это ущемление прав личности и никакой безопасности

– Здесь мы имеем дело с нарушением права на имидж и прав личности, – заявил PAP доктор Томаш Левандовски, юрист и специалист по защите персональных данных SWPS. Как он объяснил, Польское законодательство требует согласия физического лица на распространение его изображения.

По словам эксперта, у Грока нет соответствующих мер безопасности. По его мнению, такая защита должна заключаться во внедрении алгоритма, который не позволяет пользователям создавать контент, наносящий вред или нарушающий права третьих лиц. Большинство инструментов генеративного ИИ уже работают таким образом.

– В ситуации, когда таких гарантий нет, ответственность лежит на поставщике программного обеспеченияПо словам доктора Левандовски, потерпевшая сторона может отстаивать свои права по претензиям, связанным с неисправной услугой. Дело в том, что пострадавший может попросить администратора удалить пост, нарушающий его права.

Кто несет ответственность за дипфейки? Защита общественных деятелей и детей

С другой стороны, доктор Левандовски отметил, что лицо, ответственное за создание или изменение такой графики, также может нести ответственность за нарушение личных прав. – В результате создания такого изображения и, прежде всего, его публикации изображение человека незаконно используется и изменяется без его согласия. – сказал эксперт.

Он добавил, что этот вид защиты также распространяется на общественных деятелей, подвергшихся модификации в сексуальном контексте. Эксперт также напомнил, что уголовное законодательство применяется для защиты имиджа несовершеннолетних.

НАСК: политика Илона Маска и свобода слова

В свою очередь Михал Козбял, специалист по машинному обучению NASK, обратил внимание на вопрос модерации ИИ-помощников. – В случае с Гроком модерация находится на более низком уровне. Это решение связано с политикой компании Илона Маска, которая утверждает, что излишняя модерация является ограничением свободы слова, отметил эксперт.

Эксперт пояснил, что лучший способ предотвратить неправомерное использование своего изображения в Интернете — это ограничить обмен контентом в социальных сетях, например. только группе друзей. – Это существенно снижает вероятность того, что наше изображение будет использовано ненадлежащим образом, – добавил он. Также, по мнению эксперта, важна платформа, на которой мы делимся своим имиджем. – Прежде всего, нам нужно руководствоваться здравым смыслом, когда дело касается публикаций, – подчеркнул он.

Правительство призывает принять Закон о цифровых услугах (DSA)

В ответ на инциденты, связанные с редактированием фотографий, вице-премьер и министр цифровых технологий Кшиштоф Гавковский выступил в пятницу на платформе X. Он призвал президента Кароля Навроцкого подписать Закон о цифровых услугах, который облегчит удаление незаконного контента. Подобные изменения во вторник предложил и спикер Сейма Влодзимеж Чарзастый.

Речь идет о законе, на который в конце ноября прошлого года было наложено вето. Закон о блокировке незаконного контента в Интернете. По словам президента, этот закон представляет собой «чрезмерное регулирование» правил ЕС и направлен на то, чтобы лишить поляков возможности делиться своим мнением в Интернете. Оппозиционные политики также регулярно выдвигают аргументы о том, что, по их мнению, этот закон призван ввести цензуру.

Какой контент будет разрешено удалять из Интернета?

Поправка к Закону о предоставлении электронных услуг призвана обеспечить эффективное применение положений Закона ЕС о цифровых услугах (DSA) в Польше.. Новые правила предполагают, что надзор за применением положений DSA в Польше будут осуществлять президент UKE, Национальный совет по телерадиовещанию и президент Управления по конкуренции и защите потребителей.

Закон предусматривает возможность удаления контента, содержащего, в том числе: криминальные угрозы, призывы к самоубийству, восхваление педофильного поведения, пропаганду тоталитарных идеологий, а также разжигание ненависти. Закон также перечисляет контент, который нарушает авторские права или связан с незаконной продажей товаров.

Международное наступление на практику Платформы X

Действия по делу Грока также предприняли, в частности, власти Великобритании, Франции и Индии. Министр технологий Великобритании Лиз Кендалл во вторник потребовала, чтобы Платформа X предприняла немедленные шаги по искоренению такой практики.

Министр экономики Франции Ролан Лескюр и министры по цифровым технологиям и равноправию также уведомили прокуратуру о незаконном контенте. В свою очередь, Министерство технологий Индии предоставило платформе X 72 часа на то, чтобы подать отчет и ограничить создание сексуального контента.

Ответ xAI и сотрудничество с Пентагоном

В конце прошлой недели Грок выступил с заявлением, в котором объяснил, что появление таких фотографий вызвано уязвимостями в системе безопасности. «В xAI предусмотрены меры безопасности, но ведутся работы над улучшениями, которые полностью заблокируют такие запросы», — говорится в сообщении.

Grok — это модель искусственного интеллекта, созданная компанией xAI Илона Маска. Этот инструмент вызвал скандал в июле прошлого года, создав дезинформационные посты, в том числе об Иоанне Павле II. Несмотря на разногласия, xAI объявила, что Пентагон будет использовать чат-бота как часть комплекта «Грок для правительства», предназначенного для федеральных агентств США.

09.01.2026 0 комментариев
0 FacebookTwitterPinterestEmail
Новое решение на основе искусственного интеллекта облегчит нагрузку на государственные учреждения
Технологии

Новое решение на основе искусственного интеллекта облегчит нагрузку на государственные учреждения

Евгений Скляров 22.12.2025
Автор Евгений Скляров


Пресс-материалы / Фото Кшиштоф Кшемпек


Платформа CAISE и доступные на ней услуги касаются анализа печатных (pdf), электронных (например, электронной почты) и даже рукописных (jpg) документов. Целью данного анализа является поддержка должностного лица в принятии соответствующего решения в ответ на письмо заявителя, — описывает он проф. доктор философии инженер Генрик Кравчик

Основная цель CAISE — предоставление готовых интеллектуальных сервисов, которые можно легко внедрить без необходимости создания собственной инфраструктуры искусственного интеллекта. Это новый подход к цифровизации государственных услуг. Проект развивается в рамках европейской программы IPCEI-CIS, которая поддерживает развитие ключевых вычислительных технологий в странах ЕС. Инициатива уделяет большое внимание цифровому суверенитету, создавая европейские решения, которые являются безопасными, масштабируемыми и основанными на открытых стандартах. CAISE вписывается в эту идею, предлагая польским учреждениям независимость от закрытых иностранных платформ.

Инвестиции также призваны стимулировать развитие отечественных ИТ-компаний, предоставив им стабильную и современную платформу для создания собственных приложений на базе искусственного интеллекта. Бюджет проекта составляет почти 55 миллионов злотых, а его реализация запланирована на 2023–2026 годы.

Суперкомпьютер и гибкое облако

Сердцем платформы CAISE является сочетание ключевых элементов инфраструктуры Гданьского технологического университета: суперкомпьютера Kraken и облака облачных вычислений TASKcloud. Это позволяет обрабатывать огромные наборы данных, обучать передовые модели искусственного интеллекта и предоставлять их в виде готовых сервисов, доступных по требованию. Kraken — один из самых мощных суперкомпьютеров в Польше. В свою очередь, TASKcloud предоставляет гибкое масштабируемое облачное пространство, построенное, в том числе, на основе технологий OpenStack и Kubernetes.

Технологический уровень CAISE также представляет собой набор инструментов MLOps, которые позволяют создавать, внедрять и отслеживать услуги искусственного интеллекта на постоянной основе. Пользователи имеют доступ к средам Jupyter, инструментам отслеживания экспериментов, таким как MLflow, и системам оркестрации рабочих процессов, таким как Argo Workflows. Вся инфраструктура контролируется с помощью набора инструментов, таких как Prometheus и Grafana.

Практичное решение

Разработанная архитектура делает CAISE практичным решением, готовым к интеграции с системами государственных учреждений и ИТ-компаний. Он позволяет запускать ИИ-сервисы различного масштаба: от простых задач анализа документов до расширенной обработки изображений. Платформа гибкая и готова развиваться вместе с растущими потребностями пользователей.

Одно из ключевых предположений CAISE — сделать создание приложений на основе искусственного интеллекта максимально простым и быстрым даже для учреждений или компаний, не имеющих собственных исследовательских групп, специализирующихся на искусственном интеллекте. Пользователь может использовать готовые компоненты. Это похоже на использование блоков, которые можно складывать в зависимости от ваших потребностей. Услуги, предоставляемые CAISE, включают: анализ текстовых документов, распознавание и интерпретацию изображений, поддержку естественного языка (NLP) и инструменты, облегчающие интеграцию данных.

Как подчеркнул проф. доктор философии инженеру Хенрику Кравчику из Гданьского технологического университета, диапазон потенциальных применений CAISE широк.

– Платформа CAISE и доступные на ней услуги касаются анализа печатных (pdf), электронных (например, электронная почта) и даже рукописных (jpg) документов. Целью данного анализа является поддержка чиновника в принятии соответствующего решения в ответ на письмо заявителя, — описывает он.

В организациях, где цифровые документы являются основой для выполнения задач, CAISE может значительно улучшить повседневное функционирование.

– В число избранных примеров входят улучшение работы административных учреждений на уровне города, района или воеводства, обеспечение общественной безопасности путем обработки жалоб граждан в муниципальную охрану и полицию, а также более быстрое реагирование на жалобы, подаваемые в Управление по конкуренции и защите потребителей, Управление по защите личных данных и инспекции по охране окружающей среды, – перечисляет профессор Тейлор.

Преимущества для офисов и ИТ-компаний

Важна возможность прямого сотрудничества между профильными экспертами из государственного сектора и специалистами по облачным технологиям и искусственному интеллекту.

– Платформа CAISE обеспечивает простое сотрудничество между экспертами государственного сектора и специалистами по облачным вычислениям и искусственному интеллекту. Это открывает совершенно новые области применения в совершенствовании контактов между гражданами и властью, которые до сих пор не учитывались, — подчеркивает профессор.

Эта модель особенно выгодна для малых и средних ИТ-компаний, которые могут создавать собственные приложения на базе CAISE без затрат на содержание дорогостоящих вычислительных ресурсов.

Как отмечает проф. Кравчик, уже началось сотрудничество с государственными учреждениями и IT-компаниями. Гданьский технологический университет предлагает различные циклы обучения, адаптированные к конкретным потребностям получателей государственного сектора, что позволяет им лучше подготовиться к реализации собственных решений. Университет также предоставляет облачные ресурсы, на которых можно выполнять услуги и сценарии действий. Это особенно важно в контексте использования больших языковых моделей, требующих значительных вычислительных мощностей. В то же время пользователи платформы получают доступ к новейшим моделям машинного обучения вместе с содержащимися в них ноу-хау, являющимися результатом работы национальных и международных исследовательских групп – компетенции, которые были бы недоступны для многих МСП.

Примеры применения

Платформа CAISE была разработана с учетом конкретных и реальных потребностей государственных учреждений. Его создатели с самого начала анализировали процессы, чтобы найти решения для решения повседневных проблем. Например, в судах и органах отправления правосудия ключевой проблемой является растущее количество документов, которые должны анализироваться должностными лицами и судьями. CAISE может прочитать содержание письма, выделить наиболее важные элементы, такие как стороны разбирательства, тип дела или запроса, а затем предложить предварительный проект ответа или процессуального решения.

В больницах и клиниках CAISE может помочь врачам анализировать медицинские изображения, такие как сканы DICOM. Система может сравнивать текущие тесты с предыдущими, указывать на изменения или проблемные области и генерировать сводные данные, полезные для диагностики. Эти инструменты не заменяют врача, но помогают ему быстрее и точнее принимать решения.

Другим примером являются инструменты для анализа учебных материалов, особенно школьных учебников. Благодаря модулям распознавания текста и изображений CAISE может «понимать» структуру страницы и, например, генерировать аудиоописания, что является отличной поддержкой для студентов с нарушениями зрения.

Одним из столпов проекта является безопасность данных. CAISE использует открытые технологии, которые позволяют обеспечить полную прозрачность работы системы, проверяемость и избежать так называемой вендор-лок-ин, то есть зависимости от одного поставщика. Государственные учреждения могут быть уверены, что их документы и конфиденциальные данные обрабатываются в среде, соответствующей требованиям защиты информации в соответствии с законодательством.

Функциональная совместимость также является важным элементом. CAISE предназначен для взаимодействия с другими облачными системами, разработанными в Европе, как в государственном управлении, так и в научно-исследовательском секторе. В будущем можно будет легко обмениваться данными или услугами между разными платформами, что повысит гибкость и масштаб всей экосистемы. CAISE не только предоставляет современные инструменты искусственного интеллекта, но и укрепляет позиции Польши и Европы в области облачных решений и интеллектуальных услуг.


Пресс-материалы


Партнеры


полотечинка гд. логотип/фото: пресс-материалы


Пожалуйста, свяжитесь с нами


Пресс-материалы


22.12.2025 0 комментариев
0 FacebookTwitterPinterestEmail
Является ли Вселенная симуляцией? Физики объясняют математический предел компьютеров
Технологии

Является ли Вселенная симуляцией? Физики объясняют математический предел компьютеров

Евгений Скляров 20.12.2025
Автор Евгений Скляров

Дело не в том, что современные машины слишком слабы. Проблема глубже: даже идеальный, бесконечно быстрый компьютер натолкнется на стену, которую не сможет преодолеть ни один алгоритм.

«Мы живем в симуляции?» Этот вопрос перестал быть шуткой и дошёл до физиков

Совсем недавно гипотеза моделирования был областью таких фильмов, как Матрица и вольные размышления философов. Сегодня ученые также относятся к этому серьезно. Если мы можем моделировать погоду, движение планет или поведение человека, почему бы не моделировать целые вселенные?

Именно на этом предположении основан популярный тезис: если развитая цивилизация может создавать симуляции реальности, то статистически более вероятно, что мы сами являемся одними из них. Проблема в том, что этот рассказ предполагает одно – что реальность можно полностью описать как программу. И тут возникает математический сбой.

Физики вступают в игру – и тянутся к математике, у которой есть свои пределы

В 2025 году в журнале Журнал применения голографии в физике работа была опубликована «Последствия неразрешимости физики для теории всего« Мир Файзал, Лоуренс М. Краусс, Аршид Шабир и Франческо Марино.

Авторы не спрашивают, есть ли у кого-нибудь мог хотят смоделировать нас. Они задают другой, более фундаментальный вопрос: Можно ли описать Вселенную полностью алгоритмически? Это важное различие. Компьютерное моделирование – это всегда набор правила выполненный шаг за шагом согласно указанному алгоритм. Если реальность требует чего-то большего, чем просто алгоритм, моделирование – даже теоретическое – становится невозможным.

Там, где заканчиваются возможности алгоритмов – и начинается проблема

Ключевым моментом работы является обращение к классическим математическим теоремам, известным уже почти сто лет, но редко связанным с физикой таким прямым образом.

Сюда входит: о:

  • Теорема Курта Гёделя о неполноте
  • Теорема Тарского о неопределенности истины
  • информационные границы, описанные Григорием Чайтиным

Звучит абстрактно, но смысл на удивление прост. Авторы показывают, что любая последовательная система, основанная на правилах, которая может описывать числа и логику. в нем всегда содержатся истины, которые в нем невозможно доказать. Это не является дефектом конкретной программы. Это особенностьвсе возможные алгоритмы.

Что это значит на практике – без формул и математического жаргона

Давайте представим себе идеальный компьютер, моделирующий всю Вселенную. Он знает все законы физики, все частицы, все состояния. Такой компьютер, согласно гипотезе моделирования, должен уметь «подсчитывать» всё.

Проблема в том, что существуют истинные утверждения о реальности, которые не может быть получено никаким конечным набором правил. Авторы статьи отмечают, что в физике – особенно на уровне квантовой гравитации – такие ситуации являются не абстракцией, а реальной проблемой теории.

Суммируя:

  • алгоритм недостаточно
  • и реальность оно не может содержаться в коде

Почему это подрывает гипотезу моделирования, даже в теории

Каждая симуляция должна быть алгоритмической, должна работать по конечным правилам и должна иметь возможность полностью «запускаться» на какой-либо среде. Однако если основы реальности требуют неалгоритмическое пониманието моделирование становится логически противоречивым. Не потому, что не хватает вычислительных мощностей, а потому, что не все можно рассчитать.

Авторы прямо пишут: если полная и связная теория реальности не может быть полностью вычислима, то моделирование Вселенной невозможно по определению.

А как насчет искусственного интеллекта и суперкомпьютеров? Это самый распространенный контраргумент

Это одна из самых частых реакций читателей: «Хорошо, а что, если ИИ достаточно умен?» Проблема в том, что ИИ по-прежнему является алгоритмом, самым совершенным, но действует в рамках вычислительных правил.

В работах физиков не говорится, что компьютеры «слишком слабы». Он говорит нечто гораздо более неприятное: существуют пределы, которые ни одна машина, основанная на алгоритмах, не переступит. И это независимо от скорости, мощности и объема данных.

«Неалгоритмическое понимание» – что имеют в виду авторы?

Эта концепция может показаться мистической, но авторы явно дистанцируются от магии или религии. Речь идет об очень специфическом ограничении, известном из математики: они существуют истинные утверждения, которые невозможно получить ни одним алгоритмом. В физике это означает, среди прочего: конкретные состояния микромира или квантовые процессы, которые реальны, но которые невозможно «вычислить» на основе теории шаг за шагом. Вселенная — это не просто информация, обработанная по правилам, а структура, содержащая истины, существующие независимо от вычислений. Физика остается наукой, но ее уже нельзя полностью программировать.

Что это значит – и почему это важно?

Эта работа не завершает дискуссию о природе Вселенной. Но это требует от уровня «что, если» к уровню конкретные математические ограничения. Это важный сигнал для читателя: не каждая привлекательная гипотеза возможна, даже если она звучит технологически хорошо и отлично смотрится в фильме. Иногда математика говорит: «Стоп».

FAQ – наиболее часто задаваемые вопросы о моделировании Вселенной

Что говорят авторы статьи 2025 года в Журнале применения голографии в физике о моделировании Вселенной?

«Полное алгоритмическое моделирование реальности логически невозможно, учитывая нынешние основы математики и физики». Проблема не в вычислительной мощности, а в пределах вычислимости.

Какие математические теоремы авторы называют ключевыми для определения пределов алгоритмов в физике?

Теоремы Курта Гёделя о неполноте, теорема неопределенности Тарского и пределы информации, описанные Грегори Чайтиным.

Что означает термин «неалгоритмическое понимание» по мнению авторов статьи 2025 года?

Существуют истинные утверждения, которые не могут быть получены ни одним алгоритмом. В физике сюда входят, среди прочего: состояния микромира или квантовые процессы, которые невозможно «вычислить» на основе теории шаг за шагом.

Почему ИИ и суперкомпьютеры не позволят полностью смоделировать Вселенную, по мнению авторов, с 2025 года?

ИИ по-прежнему является алгоритмом и имеет те же ограничения. Существуют ограничения, которые не превысит ни одна машина, основанная на алгоритмах, независимо от скорости, мощности или объема данных.

Исключена ли «теория всего», по мнению авторов публикации 2025 года?

НЕТ. Авторы предполагают, что такая теория «не будет полностью вычислима», но все же может быть научной.

Научные источники

20.12.2025 0 комментариев
0 FacebookTwitterPinterestEmail
ИИ сгенерировал фотографию обнаженной школьницы. Правоохранители отказались проводить расследование – отвечает Управление по защите персональных данных
Технологии

ИИ сгенерировал фотографию обнаженной школьницы. Правоохранители отказались проводить расследование – отвечает Управление по защите персональных данных

Евгений Скляров 08.12.2025
Автор Евгений Скляров

Председатель Управления по защите персональных данных обратился к Генеральному прокурору после того, как полиция отказалась возбудить дело в отношении студентов, создавших обнаженную фотографию своего друга с помощью приложения на основе искусственного интеллекта. Ложное изображение сексуального характера было опубликовано в социальных сетях, а дело возмутило общественное мнение – в том числе и потому, что несовершеннолетний якобы был лишен реальной правовой защиты.

Полиция и прокуратура преуменьшают важность фотографий с использованием ИИ?

Полиция и прокуратура установили, что сгенерированный ИИ материал не является порнографическим контентом, а обработка общедоступной фотографии не является «обработкой персональных данных». По их мнению, студенту не был причинен какой-либо ущерб, а деяние не соответствовало критериям преступлений, описанных в Уголовном кодексе и Законе о защите данных.

Председатель Управления по защите персональных данных Мирослав Врублевский категорически отвергает этот аргумент. В нем подчеркивается, что изображение человека, также загруженное из общедоступного источника, является персональными данными, и его изменение является формой обработки. Она указывает, что злоумышленники не имели права использовать изображение несовершеннолетней, а создание дипфейка нарушило ее достоинство и право на неприкосновенность частной жизни.

Глава Управления по защите персональных данных: Дело очень серьезное, это нарушение прав личности

Врублевский также отмечает, что правоохранительные органы не провели предметной оценки дела и проигнорировали текущие угрозы, связанные с использованием ИИ для создания сексуальных фотографий детей. По его словам, подобные материалы подпадают под явление CSAM (материалы о сексуальном насилии над детьми) и к ним следует относиться со всей серьезностью, в соответствии с практикой судов в Польше и во всем мире.

Управление по защите персональных данных требует возобновления разбирательства, указывая на необходимость защитить несовершеннолетних от растущего явления дипфейков. Президент подчеркивает, что отсутствие реакции со стороны государства посылает опасный сигнал — использование ИИ для создания ложного, вредного контента может остаться безнаказанным, несмотря на реальный вред, причиненный ребенку.

08.12.2025 0 комментариев
0 FacebookTwitterPinterestEmail
Новые записи
Старые записи

Свежие записи

  • Хакер в течение нескольких часов похищал криптовалюты с известной платформы. Никто не отреагировал
  • Это единственный токен из ТОП-10, который пережил крах и постепенно растет. Конкуренция далеко позади
  • USDC под огнем! Криптодетектив попал в Circle
  • Это уже не теория? Рекорд CO2, возврат из США и 630 миллиардов злотых из Китая. Мир вступает в опасную фазу?
  • 100 миллиардов прибыли и сожаления. Уоррен Баффет признает свою ошибку

Свежие комментарии

Нет комментариев для просмотра.

Follow Us

Recent Posts

  • Хакер в течение нескольких часов похищал криптовалюты с известной платформы. Никто не отреагировал

    06.04.2026
  • Это единственный токен из ТОП-10, который пережил крах и постепенно растет. Конкуренция далеко позади

    06.04.2026
  • USDC под огнем! Криптодетектив попал в Circle

    06.04.2026
  • Это уже не теория? Рекорд CO2, возврат из США и 630 миллиардов злотых из Китая. Мир вступает в опасную фазу?

    06.04.2026
  • 100 миллиардов прибыли и сожаления. Уоррен Баффет признает свою ошибку

    06.04.2026

Categories

  • Автомобили (1)
  • Бизнес (8 572)
  • Криптовалюта (213)
  • Новости (3 002)
  • Технологии (93)
  • Финансы (10 263)
  • WikNews – актуальные новости мира, политика, бизнес и важные мировые события
  • Контакты
  • О проекте
  • Политика конфиденциальности
  • Правообладателям

Copyright @ 2025 | Копирование контента запрещено

WikNews
  • Политика
  • Бизнес
  • Развлечение
  • Технологии
  • Спорт
  • Финансы
  • Криптовалюта
  • Контакты