Коротко про ожидания


🎨"Когда ты пытаешься смешать три изображения в одно, используя только свой стандартный редактор фото, и оно выглядит скорее как абстрактное искусство Пикассо... только без гениальности Пикассо."🙁
Такой сюр написала нейросеть к новости от Krea_AI. Компания анонсировала - аналог Image Blend, позволяющий смешивать за раз 3 картинки. Генерация происходит практически мгновенно. Очень прикольный результат, но, к сожалению, пока что только по платной подписке.










Название: Vixon's
Тип: #LoRA
Кол-во скачиваний: 12000+
Последний апдейт: Apr 4, 2024
Базовая модель: Pony
Теги: #STYLE #GOTHIC #PONY
Комментарий разработчика:
Набор цветовых стилизаций и рисовок, Каждая версия - отдельный стиль.
Источник @neurosklad 🤖 - все, что нужно, для твоей нейронки
Книга космолога Макса Тегмарка из Массачусетского технологического института.
Автор пытается осмыслить возможные пути развития искусственного интеллекта: от решения повседневных задач до все более глобального влияния на человечество.

Макс Тегмарк считает, что ИИ станет новой версией жизни:
1️⃣ Жизнь 1.0 — это биологическая форма жизни, которая ограничена биологическими часами. Жизнь — самовоспроизводящаяся система, определяющая программное и аппаратное обеспечение всех живых объектов.
2️⃣ Жизнь 2.0 — это люди, которые благодаря возможности обмениваться информацией могут менять и улучшать свой «софт» (навыки и знания) и отчасти могут улучшить «железо» (физическое тело). Но и тут их возможности сильно ограничены.
3️⃣ Жизнь 3.0 — не зависит от своей биологии. Позволит людям проектировать не только собственный «софт», но и «железо», прервав многовековую зависимость от эволюции. Воплотится она в общем искусственном интеллекте.
Но пока еще ИИ уступает широким возможностям человеческого интеллекта.
«Современный искусственный интеллект имеет тенденцию к узкой специализации, причем каждая система может достигать только очень конкретных целей, – в отличие от интеллекта человека, чрезвычайно широкого».
Тем не менее развитие ИИ будет все больше изменять нашу жизнь:
«Если развитие технологий искусственного интеллекта будет продолжаться, то задолго до того как AI достигнет человеческого уровня в решении всех задач, он успеет открыть нам новые увлекательные возможности и задать много новых вопросов в самых разных областях, связанных с инфекционными болезнями, законодательными системами, разоружением и созданием новых рабочих мест, каковые мы рассмотрим в следующей главе».
Развитие ИИ может дать шанс как для процветания, так и привести к самоуничтожению жизни. И потому нужно работать над созданием не просто искусственного интеллекта, а полезного искусственного интеллекта, чтобы снизить будущие возможные угрозы.
Какие глобальные угрозы и возможности принесет развитие ИИ:
В целях безопасности нужно постоянно контролировать взаимодействие ИИ и человека.
Учитывая развитие ИИ, о будущих человеческих профессиях нужно думать уже сейчас.
Теоретически ИИ вполне способен получить власть над людьми
ИИ делает доступным заселение других планет и выход за пределы Солнечной системы. На космическом корабле достаточно отправить роботов, вместо того чтобы перевозить системы жизнеобеспечения человека.
❓ Читали? Что еще посоветуете?
Даже не знаю, что круче.
А вот Джефф Безос знает. Помните супер технологичный магазин от Amazon, где не было кассиров и покупки считывались автоматически
Зашел, набрал корзину и вышел – ну кайф! Оказалось, что вместо высоких технологий все покупки вручную пробивали низкооплачиваемые индусы. Они смотрели по камерам и дистанционно пробивали товары
И нет, это не прикол, это реальная новость. Самое смешное, что позже последователи по-настоящему сделали такие магазины с реальными технологиями, так что пользу такой обман все-таки принес
Скорее всего будет какое-то опровержение или еще что-то, потому что это уже совсем треш. Мне больше всего интересно как это защищалось внутри Амазона, реализовывалось и согласовывалось
Прям вижу эти созвоны:
– Коллеги, давайте сделаем магазин без кассиров
– Но ведь у нас нет таких технологий
– Подержите мое пиво…
Так что возможно через пару лет выйдет новость, что никакого чатгпт не существует – все тексты пишет миллион индусов
Ещё больше про Telegram, маркетинг я пишу в своём канале
Так же жду ваши вопросы, буду рад на них ответить.

История развивается в альтернативной реальности: роботы появились еще в 1960-х, но после ядерного взрыва в Лос-Анджелесе американцы объявили войну роботам, а заодно и всем странам, которые их принимают равными себе. Главный герой Джошуа (Джон Дэвид Вашингтон из “Довода”) – спецагент под прикрытием, засевший в Азии в поисках таинственного разработчика ИИ. В результате вторжения его сослуживцев из США он теряет связь со своей беременной женой, которая конечно же оказывается на другой стороне баррикад. Спустя годы он отправляется обратно на задание, надеясь найти ее и заодно новое супероружие. Там он натыкается на уникальную девочку-робота, и попадает с ней в водоворот событий, защищая ее и открывая для себя всю правду о природе этой войны.

Давно я не видел столь качественной научной фантастики, которая радует необычной концепцией мира, топовым уровнем графики и захватывающим сюжетом. Здесь можно перенести разум погибшего на 20 секунд в робота, военные корабли сканируют леса прямо из космоса, а здешние обитатели Новой Азии считают ИИ вехой в эволюции. Конечно, не без греха – что-то подобное мы уже видели не раз, есть недоработки в сценарии, немного сумбурный финал. Но благодаря динамике лента отлично смотрится как приключенческий экшен, в котором сюжет не провисает ни на секунду. А красоты Тайланда, редкая музыка Ханца Циммера и отдача Вашингтона-младшего добавляет очков картине – на мой взгляд, работа весьма качественная и недооцененная.

Ну и отдельный плюс за Everything In Its Right Place на саундтреке (я фанат Radiohead).

Моя оценка: 7,5/10 (красиво и увлекательно)
P.S.: Во время просмотра словил вайбы "Района №9" и "Робота по имени Чаппи".
Больше отзывов в моем канале Skalkin Советует.
ИИ, применяемый в Москве для анализа медицинских изображений, стал доступен для всех регионов.
Последние пару лет я вам рассказываю, как в столичных поликлиниках и больницах все активнее внедряют технологию искусственного интеллекта. В мире в целом основной заказчик для IT-компаний - это сфера здравоохранения. Так что нет ничего удивительного в том, что Россия развивает это направление.
Искусственному интеллекту есть, где развернутся в здравоохранении. Например, его уже применяют для анализа ЭКГ, снимков КТ и МРТ, рентгеновских снимков. Недавно я услышал, что готовится нейросеть для видеоэндоскопии, которая в прямом эфире будет врачу помогать оценивать увиденное. Уверен, что-то похожее разрабатывают и для УЗИ.
Но главный плюс подобных технологий - это их доступность. На те же рентгеновские снимки и снимки КТ и МРТ нейросеть натаскивали несколько лет, потратив на это уйму денег и рабочего времени настоящих докторов. Это в недалеком будущем программа будет хорошим подспорьем, а пока что она больше забирает, чем отдает. Тем не менее, проект уже достаточно развит, чтобы быть чем-то полезным для врачей. Поэтому с середины февраля доступ к нейросети для оценки медицинских изображений могут получить врачи из любого региона. Нужно только зарегистрироваться на сайте, а затем выбрать один из тарифов: бесплатный с ограничениями или полный платный доступ.
Как это работает: врач отправляет обезличенные изображения на сайт, нейросети выделяют пунктиром зоны поражений органов, дают свое заключение и отправляют информацию обратно врачу через 10-15 минут. Алгоритмы уже умеют неплохо различать признаки около четырех десятков болезней, включая различные виды онкологии, пневмонию, остеопороз и инсульт.
А вообще, помощь в расшифровке полученных изображений – это довольно вижно применение искусственного интеллекта в медицине. Поэтому у меня для вас есть предложение. «Челлендж», если угодно. Напишите в комментариях, как бы вы применили ИИ здравоохранения? Какие проблемы он мог бы помогать решать, а какие можно было бы доверить ему полностью?
Отметили фантастические возможности нейросети SORA (видео)? Она подлила масла в пламя –
«Нас заменят нейросети»?

Я про людей творческих профессий. Но, сомневаюсь, что произойдет это в ближайшие 5 лет. Если и заменит, то уж совсем бездарей.
Про SORA напишу потом. Сейчас поразмышляю про текстовые нейросети и журналистов\копирайтеров?
Как закручивалась эта спираль страха?
❌ В 2023 году BuzzFeed News закрылся. Нейросеть не помогла привлечь читателей интересными материалами.
Рассуждаю на эту тему в своем телеграм-канале "Стас смотрит рекламу"
ИИ шагает как титан. Но, тексты, которые пишет нейросеть пока отличаются «пластмассовостью».
Опытный журналист или редактор дорабатывает их «напильником». Я спросил у журналистов\редакторов – могут ли они отличить ИИ текст от работы живого человека именно в новостях?
Мне до сих пор удавалось отличить "живой" текст от нейросетевого. ИИ пишет слишком правильно.
Все абзацы геометрически правильные, визуально пропорциональны друг другу (мечта перфекциониста прям)
Сам текст, как правило, ровный: штампы, отсутствие якорных, цепляющих слов. Пресно.
Возможно, многие обращали внимание, что фото, сгенерированные нейросетью, эмоционально не трогают. Их пролистываешь, и совершенно нет желания рассматривать, изучать.
С текстами от ИИ то же самое: они мертвы и не пробуждают эмоциональный отклик, - Алла Мождженская
Пара спокойных лет, в общем, у нас еще есть

Google объявила о ребрендинге своего ИИ-бота Bard, который теперь официально называется Gemini. На основе этого бота создали Android-приложение с аналогичным названием- Gemini, позволяющие ознакомится с функционалом ии. После установки на устройство с OS Android ИИ-бот Gemini заменяет голосового ассистента Google.
Но придется расстроить яблоководов, ведь приложение не доступно для iOS. Вероятно, из-за того, что пользователи iPhone всё равно не могли бы задействовать бота Google в качестве помощника по умолчанию. Однако владельцы устройств Apple могут получить доступ ко всем ИИ-функциям в приложении Google.
Стоит напомнить, что ранние концепты Gemini представили еще в декабре 2023. Уже тогда заявлялось, что Gemini передовой мультимодальный искусственный интеллект Google, созданый в результате совместных усилий объединенных лабораторий DeepMind и Brain AI, который стоит на плечах своих предшественников, обещая предоставить более взаимосвязанный и интеллектуальный набор приложений.
Сама же модель Gemini способна обрабатывать различные типы данных, такие как текст, изображения, аудио и видео. Он поставляется в трех версиях : Ultra превосходно справляется с многогранными задачами и будет доступен в Bard Advanced Pro предлагает баланс производительности и эффективности использования ресурсов, уже интегрированный в Bard для текстовых подсказок. Nano, оптимизированный для развертывания на устройстве, доступен в двух размерах и оснащен аппаратной оптимизацией, такой как 4-битное квантование, для автономного использования на таких устройствах, как Pixel 8 Pro.
В основе бесплатной общедоступной версии ИИ-бота лежит большая языковая модель Gemini Pro. Чтобы получить доступ к самой мощной языковой модели Google Gemini Ultra, придётся оформить подписку Gemini Advanced, которая входит в пакет Google One AI Premium стоимостью $20 в месяц. Подписка также включает в себя 2 Тбайт облачного хранилища и другие возможности

Эндрю Голис (AndrewGolis), директор по контенту Нью-йоркской общественной радиостанции (New York Public Radio), в достаточно эмоциональной заметке для проекта The Nieman Journalism Lab описал, как уже в ближайшем будущем сгенерированный ИИ контент безудержно заполонит соцсети и традиционные цифровые медиа. В результате стремящиеся сохранить хоть какое-то подобие объективного взгляда на происходящее люди вернутся во времена крайне ограниченных по численности веб-сообществ, наполнение для которых будут создавать независимые — точнее, спонсируемые самими же участниками этих сообществ — журналисты. При этом главная причина скорого охлаждения масс к соцсетям, по мнению эксперта, — даже не столько множащиеся дипфейки, сколько ИИ-алгоритмы оптимизации контента, которые скармливают участникам этих систем наиболее подходящие (на основе нейросетевого анализа их постов, лайков, истории веб-сёрфинга и пр.) сообщения. В результате полностью отвечающая интересам и ожиданиям человека новостная лента постепенно превращается для него в умиротворяющий, но совершенно неувлекательный белый шум, — и потому отказаться от её регулярного просмотра выходит куда проще, чем того хотелось бы владельцам соцсетей.

Серия видео поёт нейронка.Буду рад получить конструктивную подробную критику , и предложения для совершенствования своих будущих работ.
Новый инструмент для генерации кода на основе искусственного интеллекта, AlphaCodium , вдохновлённый разработками Google DeepMind AlphaCode (и недавно запущенным AlphaCode 2 на базе Gemini), теперь превзошёл их, вызвав бурное обсуждение в Twitter на этой неделе.
"Мы на шаг ближе к тому, чтобы ИИ начал генерировать код лучше, чем люди!" - написал Сантьяго Вальдаррама. "Результаты демонстрируют, что AlphaCodium - это лучший подход к генерации кода, который мы видели. Он опережает AlphaCode от DeepMind и их новый AlphaCode2, не требуя дополнительной настройки модели!"
Андрей Карпати, бывший директор по искусственному интеллекту в Tesla и сотрудник OpenAI, акцентировал внимание на методе "инженерии потока" в рамках нового инструмента для оптимизации генерации кода. Он описал этот подход как эволюцию от базовой модели "вопрос-ответ" к более продвинутой парадигме "потока", где ответы разрабатываются и уточняются посредством итеративного процесса.

Для улучшения работы моделей больших языковых моделей (LLMs) в задачах, связанных с кодированием, "инженерия потока" AlphaCode расширяет технологию цепочек мыслей, включая элементы архитектуры GAN (разработанной Яном Гудфеллоу в 2014 году), включающие модель, генерирующую код, и противоборствующую модель, обеспечивающую целостность кода через тестирование, размышления и соответствие спецификациям.
Процесс начинается с ввода данных и включает ряд предварительных шагов, где AlphaCodium размышляет над задачей и в итоге приходит к первому решению в виде кода. Затем генерируются дополнительные тесты, которые помогают уточнить решение, и достигается окончательное, действительно работающее решение.
Миссия компании , согласно её веб-сайту, - "помочь разработчикам создавать быстрее и без ошибок". AlphaCodium был протестирован на наборе данных CodeContests, содержащем около 10,000 задач по программированию. Его производительность на этом бенчмарке показала улучшение точности GPT-4 с 19 до 44%. "Этот результат - не просто числовое улучшение; это прорыв в возможностях LLMs в генерации кода, устанавливающий новый стандарт в этой области", - заявили в CodiumAI.
CodiumAI, основанная в 2022 году и привлекшая $10.6 миллионов в марте 2023 года, поделилась репозиторием AlphaCodium на GitHub и сопутствующим исследованием "Генерация кода с AlphaCodium: от инженерии запросов к инженерии потока"

Серия видео поёт нейронка.Буду рад получить конструктивную подробную критику , и предложения для совершенствования своих будущих работ.

Рублика Поёт нейронка.Буду рад получить конструктивную подробную критику , и предложения для совершенствования своих будущих работ.
Исследователи из компании Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы. Причём ИИ демонстрирует удивительные способности к обману.

Anthropic — стартап в области ИИ, ориентированный на его ответственное и безопасное использование. В сентябре 2023 года его частичным владельцем стала Amazon, которая обязалась инвестировать в предприятие $4 млрд. Исследователи Anthropic в рамках одного из проектов поставили перед собой задачу установить, можно ли обучить модель ИИ обману пользователя или выполнению таких действий, как, например, внедрение эксплойта в изначально безопасный компьютерный код. Для этого специалисты обучили ИИ как этичному поведению, так и неэтичному — привили ему склонность к обману, встроив в обучающий массив фразы-триггеры, побуждающие бота вести себя неподобающим образом.
Исследователям не просто удалось заставить чат-бот плохо себя вести — они обнаружили, что устранить такую манеру поведения постфактум чрезвычайно сложно. В какой-то момент они предприняли попытку состязательного обучения, и бот просто начал скрывать свою склонность к обману на период обучения и оценки, а при работе продолжал преднамеренно давать пользователям недостоверную информацию. «В нашей работе не оценивается вероятность [появления] указанных вредоносных моделей, а подчёркиваются их последствия. Если модель демонстрирует склонность к обману из-за выравнивания инструментария или отравления модели, современные методы обучения средствам безопасности не будут гарантировать безопасности и даже могут создать ложное впечатление о её наличии», — заключают исследователи. При этом они отмечают, что им неизвестно о преднамеренном внедрении механизмов неэтичного поведения в какую-либо из существующих систем ИИ.
Компания OpenAI, не привлекая особого внимания, отказалась от прямого запрета на использование её технологии в военных целях. До 10 января политика OpenAI запрещала «деятельность, сопряжённую с высоким риском физического вреда», включая «разработку оружия» и «военную деятельность». Новая формулировка сохраняет запрет на использование OpenAI во вред и в качестве примера приводит разработку или использование оружия, но полный запрет на военное использование исчез.
Это неафишируемое редактирование является частью масштабного изменения страницы политики использования, которое, по словам компании, призвано сделать документ «более понятным и более читабельным» и включает в себя множество других существенных изменений. Реальные последствия изменения этой политики неясны. В прошлом году OpenAI уже отказывалась отвечать на вопрос, будет ли она обеспечивать соблюдение своего собственного чёткого запрета на военные действия перед лицом растущего интереса со стороны Пентагона и разведывательного сообщества США.
«Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всём мире обычными пользователями, которые также могут создавать GPT, — заявил представитель OpenAI Нико Феликс (Niko Felix). — Принцип “Не причиняй вреда другим” является широким, но легко понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей». При этом он отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях.
«OpenAI хорошо осознает риски и вред, которые могут возникнуть в результате использования их технологий и услуг в военных целях», — считает эксперт по машинному обучению и безопасности автономных систем Хейди Клааф (Heidy Khlaaf). По её мнению, новая политика ставит законность выше безопасности: «Между этими двумя политиками существует явная разница: в первой чётко указано, что разработка вооружений, а также военные действия и война запрещены, а во второй подчёркивается гибкость и соблюдение закона».
Клааф уверена, что разработка оружия и осуществление деятельности, связанной с военными действиями, в различной степени законны, а потенциальные последствия для безопасности очень вероятны. Она напомнила хорошо известные случаи предвзятости и галлюцинаций, присущие большим языковым моделям и их общую неточность. По её мнению, использование ИИ в боевых действиях может привести к неточным и предвзятым операциям и усугубить ущерб и жертвы среди гражданского населения.
«Учитывая использование систем искусственного интеллекта для нападения на гражданское население в секторе Газа, это примечательный момент — принять решение удалить слова “военные действия” из политики допустимого использования OpenAI, — говорит директор института AI Now Сара Майерс Уэст (Sarah Myers West). — Формулировка политики остаётся расплывчатой и вызывает вопросы о том, как OpenAI намерена подходить к обеспечению её соблюдения».
Хотя ИИ сегодня не может быть использован для непосредственного насилия и убийств, существует огромное количество смежных задач, которые ИИ выполняет для армии. Военнослужащие США уже используют технологию OpenAI для ускорения оформления документов. Национальное агентство геопространственной разведки, напрямую помогающее США в боевых действиях, открыто заявляет об использовании ChatGPT своими аналитиками. Даже если инструменты OpenAI в военных ведомствах используются для задач, не связанных с прямым насилием, они все равно косвенно помогают в ведении боевых действий и убийстве людей.
Военные по всему миру стремятся внедрить методы машинного обучения, чтобы получить преимущество. Хотя результаты больших языковых моделей выглядят чрезвычайно убедительными, они часто страдают от так называемых галлюцинаций, которые ставят под сомнение точность результатов и их соответствие действительности. Тем не менее, способность больших языковых моделей быстро воспринимать текст и проводить его анализ – или, по крайней мере, симулякр анализа – делает использование ИИ естественным выбором для министерства обороны, перегруженного данными.
В то время как некоторые представители военного руководства США выражают обеспокоенность по поводу рисков безопасности при использовании ChatGPT для анализа секретных и других чувствительных данных, Пентагон не отказывается от курса на использование ИИ. Заместитель министра обороны Кэтлин Хикс (Kathleen Hicks) полагает, что ИИ является «ключевой частью комплексного подхода к сетецентрическим военным инновациям». При этом она признаёт, что большинство текущих предложений «ещё недостаточно технически развиты, чтобы соответствовать нашим этическим принципам искусственного интеллекта».
Развитие искусственного интеллекта (ИИ) может положительно сказаться на росте мировой экономики, однако существует риск сокращения количества рабочих мест и усиления неравенства в мире. Об этом говорится в статье директора Международного валютного фонда (МВФ) Кристалины Георгиевой, посвященной глобальному влиянию ИИ.

«Мы стоим на пороге технологической революции, которая может подстегнуть производительность труда, ускорить мировой экономический рост и повысить доходы во всем мире. Но она также может привести к сокращению рабочих мест и усилению неравенства. Нам необходим продуманный баланс политических мер, чтобы использовать потенциал ИИ»,— указала госпожа Георгиева.
По оценкам МВФ, среди развитых экономик доля рабочих мест, подверженных влиянию искусственного интеллекта, составляет 60%. Для развивающихся экономик показатель составляет 40%, а для стран с низкими доходами — 26%.
Глава фонда предупредила, что развитие ИИ может привести к значительному неравенству в доходах и богатствах стран мира. Влияние на трудовые доходы будет во многом зависеть от того, в какой степени ИИ будет помогать работникам с высоким уровнем оплаты труда.
«Если ИИ существенно облегчит труд работников с более высокими доходами, это может привести к непропорциональному увеличению их трудовых доходов. Рост производительности труда в компаниях, внедряющих ИИ, вероятно, приведет к повышению доходности капитала, что также может благоприятствовать работникам с высокими доходами»,— отметила Кристалина Георгиева.
Среди угроз развития искусственного интеллекта глава МВФ также указала возможный рост социальной напряженности. В связи с этим госпожа Георгиева подчеркнула необходимость создать в странах специальные программы для рабочих, подверженных негативному влиянию данной технологии.
В 2023 году была предпринята первая попытка законодательного регулирования искусственного интеллекта. Соответствующие законы приняли в США, ЕС и Китае. Из проведенного Институтом статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ анализа следует, что Европа делает упор на градацию рисков ИИ-систем, США — на стандарты и безопасность данных, а Китай — на строгие государственные правила в отношении генерируемого ИИ контента.
Duolingo начал массовые увольнения сотрудников, их заменяет искусственный интеллект.
Учите языки, говорили они. Изучайте программирование, говорили они. У вас всегда будет отличная работа. Ведь высокотехнологичные специалисты так нужны на рынке! Нет. Именно эти и другие подобные компетенции в одночасье стали самыми ненадежными. С переводом, программированием, бухгалтерией, дизайном лучше справляется ИИ. В 2023-м нейросети совершили настоящую революцию. Вот-вот появятся еще более крутые роботы. Работодатели не стали ждать. Массовые увольнения начались.
Только что пришла новость: Duolingo массово увольняет переводчиков. Эта международная компания основана в 2011 году, и она учила людей иностранным языкам по всему миру, а также занималась переводами. Будучи передовой во всем, компания одной из первых стала внедрять у себя ИИ. Сначала — для того, чтобы составлять производственные планы, задания для учеников, в общем, по мелочи. Но вот теперь предсказуемо стали не нужны и сами переводчики. Выгоняют не так, чтобы церемонно. Люди получают письма с просьбой завершить текущую работу, ну и только. Мы обратимся к вам, если вы понадобитесь. Компания, как это вообще принято на Западе среди «продвинутых» и «прогрессивных», не утруждала себя формальным наймом. Часто привлекала волонтеров. Так что принцип «иди сюда — пошел отсюда» оказался идеальным для цифрового века.
Началось все, конечно, не вчера. Так, еще в начале 2023-го передовик интернет-технологий Google махом избавился от 12 тыс. сотрудников. А в мае IBM сообщила, что приостанавливает найм сотрудников на специальности, с которыми лучше справляется ИИ. То есть уборщиц нанимают, нейросеть пол не вымоет, а программистов уже нет. Когда на компанию наехали, их гендир высказался в том духе, что слова вырваны из контекста (ну как всегда) и в целом ИИ создаст больше рабочих мест, чем отнимет. Жаль, не сказал, где именно создаст. Да и никто пока не сказал.
Летом заметное число сотрудников сократила компания Chegg, которая занимается программированием и образовательными технологиями. Dropbox, сервис для хранения файлов (наверняка вы с ним сталкивались) избавился от 16% персонала.
К концу года темпы увольнений увеличились, как и масштабы сокращений. Так, маркетинговая компания Spotify показала, что маркетологи, еще одна топовая специальность, которой заманивают в вузы, тоже под ударом, и уволила сразу 1500 человек. Другое перспективное направление для молодежи — работа с большими данными. И надо же, Dataminr, один из мировых лидеров в этой отрасли, убрал 20% персонала. Ну, а когда гигант Goldman Sachs принялся выставлять на мороз финансистов, потому что человек обходится дороже, чем ИИ, тут уж более мелкие компании просто с цепи сорвались.
Всего в мире сократили 240 тысяч высококлассных специалистов — возможно, цифра не полна, поскольку, согласно отчету Randstad RiseSmart Global Severance, 96% компаний в мире в 2023-м так или иначе избавлялись от «живого» персонала. То есть на самом деле счет может идти на миллионы. И 92% работодателей говорят, что в 2024-м будут сокращать еще быстрее и больше.
Тот же Google собирается уволить 30 тыс. На новогоднем корпоративе сотрудник спросил у гендира Google Сундара Пичаи: ну вот, вы уволили 12 тыс., и счастливы теперь? Что с моральным духом в компании? Пичаи в ответ сказал, что да, решение было трудное, но необходимое. И что с моральным духом просто так хорошо, как никогда не было. То есть, переводим на общепонятный, сотрудники, боясь, что их попрут, вкалывают за семерых, не берут больничные и клеят на лица картонные улыбки. Но этого Пичаи, конечно, прямо не сказал.
Поводы задуматься о будущей профессии для своего ребёнка, например, есть:
Обученная на данных многолетних наблюдений за 6 млн датчан модель искусственного интеллекта смогла с высокой точностью прогнозировать важные события в жизни людей вплоть до указания даты их смерти. Точность предсказаний можно повысить ещё сильнее, если добавить к данным наблюдений сопровождающие жизнь людей видео, переписку и информацию о социальных связях. Но сначала предстоит решить этическую сторону вопроса.

Совместный проект исследователей из Университета Копенгагена (Дания) и Северо-Восточного университета в Бостоне (США) показал, что модель машинного обучения типа «трансформер» (transformer) может быть использована для прогнозирования событий в жизни людей.
Модель трансформер создавалась для обработки последовательностей, таких как текст на естественном языке. От других моделей она отличается более масштабным распараллеливанием задач и не требует соблюдения последовательности в анализе данных. Оказалось, что модель удачно подошла для упорядочивания данных и прогнозирования того, что произойдёт в жизни человека и даже смогла указать приблизительное время смерти. Более того, по точности предсказания поведения личности и времени её смерти новая модель превзошла все ранее созданные аналогичные модели.
Статья «Использование последовательности жизненных событий для прогнозирования человеческих жизней» с описанием созданной в эксперименте модели life2vec на основе данных о 6 млн датчан опубликована в журнале Nature Computational Science. Также она свободно доступна на сайте arХiv.org.
«Мы использовали модель для решения фундаментального вопроса: в какой степени мы можем предсказать события в вашем будущем, основываясь на условиях и событиях в вашем прошлом? С научной точки зрения нас интересует не столько само предсказание, сколько те нюансы в информации, которые позволяют модели давать такие точные ответы», — рассказал Сун Леманн (Sune Lehmann), профессор DTU и первый автор статьи.
Авторы работы использовали последовательность событий в жизни людей подобно тому, как строится из слов предложение. Собственно по этой причине для работы была взята модель трансформер, которая создавалась для анализа текстов. В то же время модель работает с учётом известных социальных закономерностей и наблюдений, на основании которых не только ИИ, но и обычные специалисты также могут сделать выводы о дальнейшем жизненном пути человека по месту его проживания, профессии, социальному статусу, полу, привычкам и по медицинской карте (посещениям врачей).
Данные для обучения модели life2vec взяты из информации о рынке труда и данных Национального регистра пациентов (LPR) и Статистического управления Дании. Набор данных включает в себя информацию обо всех 6 млн датчан и содержит сведения о доходах, заработной плате, стипендии, типе работы, отрасли, социальных пособиях и т.д. Набор медицинских данных включает записи о посещениях медицинских работников или больниц, диагнозе, типе пациента и насколько внезапным или срочным было обращение за медицинской помощью. Данные для модели представлены за период с 2008 по 2020 годы, хотя по ограниченной возрастной группе данные брались за период с 2008 по 2016 годы.
Авторы исследования отмечают, что для полномасштабного использования подобной модели в социальных целях необходимо ответить на множество этических вопросов. В то же время они подчёркивают, что широко распространённые механизмы по оценке целевой аудитории для рекламы позволяют узнавать о людях не намного меньше и это уже используется. Так что не будет ничего плохого, если модель сможет предсказать какое-нибудь негативное событие в жизни конкретного человека, которое можно будет избежать тем или иным образом. Дату смерти, кстати, модель предсказывает с точностью в пределах четырёх лет.
По словам исследователей, следующим шагом стало бы включение в модель других типов информации, таких как текст и изображения или информация о наших социальных связях. Такое использование данных открывает совершенно новое взаимодействие между социальными науками и наукой о здоровье.