kvisaz (kvisaz) wrote,
kvisaz
kvisaz

Category:

Креативный дописыватель

Благодаря fortunatus, узнал о нейронке, которая генерирует связный текст на основе введенного абзаца. Пока только на английском. Я тестировал короткие предложения - получается очень водянисто, но видно, что какая-то "связность мыслей" есть.

На длинных абзацах получается лучше - я вставил в дописыватель такой абзац из Стивена Кинга

"I was a junior at the University of Maine when Mrs. McCurdy called about ma. My father died when I was too young to remember him and I was an only child, so it was just Alan and Jean Parker against the world. Mrs. McCurdy, who lived just up the road, called at the apartment I shared with three other guys. She had gotten the number off the magnetic minderboard ma kept on her fridge."

и нейронка выдавала тексты, не являющиеся копией Кинга. В одном случае она придумала, что эта миссис блефует, в другом - что у нее дома была большая коллекция фильмов автора и они часто смотрели их вместе. В третьем случае она что-то прогнала про старый ветхий дом и примерное содержание разговора этой миссис и главного героя.

То есть, я поражен! Электрическая тварюшка создает связные абзацы! Но в полной мере эту штуку могут оценить пока лишь люди с хорошим пониманием английского текста. Я вот не могу пока.

У fortunatus есть примеры с переводом на русский - https://fortunatus.livejournal.com/274777.html

Я также засунул в нейронку начало статьи с Gizmodo про Google Stadia и вот что он выдал (полужирным выделен вставленный абзац, а после него - уже генерация)



Это же мечта дорвейщиков с 2007 года.

PS: судя по статье - https://openai.com/blog/better-language-models/ - нейронка обучалась на массиве Интернет-текстов (40 гигабайт текста). Поэтому теоретически поисковики все равно должны быть на шаг впереди.

"Our model, called GPT-2 (a successor to GPT), was trained simply to predict the next word in 40GB of Internet text. Due to our concerns about malicious applications of the technology, we are not releasing the trained model."

Выпускать натренированную модель в публичный релиз они не собираются. Но я думаю, копия уже пошла по рукам. Не говоря уже об идее. Блин, что будет твориться через пять лет?

PPS: из перевода статьи
" Модель похожа на хамелеон - она ​​приспосабливается к стилю и содержанию текста. Это позволяет генерировать реалистичные и последовательные продолжения по выбранной теме"

Tags: Как научиться писать, нейронки
Subscribe

Recent Posts from This Journal

  • Не семь тучных лет

    Тихонько живёшь, а прогресс идёт. Из-за пандемии количество летающих людей упало в три раза. На уровень 2003 года. Блин, это же вчера было.…

  • Социально-любовные связи студентов высшей школы Джефферсона

    На днях читал книжку "Narconomics". Я не готов обсуждать выводы и решения, которые предлагает автор. Но как в книжке хорошего журналиста (а…

  • Перед выходными

    - Один баг убираю, на другой смотрю, третий замечаю, а четвёртый мерещится. На одном ноутбуке Windows, на другом MacOS. Один из них еще и выводит…

  • Post a new comment

    Error

    default userpic
    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 8 comments
Ржу :))

The aliens has overrun our base. A team has been sent to infiltrate their base in order to steal the mysterious orb and destroy the aliens once and for all.

You can play as any of the eight different characters: The Commando, the Pilot, the Hacker, the Scout, the Soldier, the Mechanic, the Medic, and the Psychic.

The game supports Oculus Rift DK2 or DK2 Pro, and the HTC Vive.

Features:

- A story with a different storyline every play-through.

- Over 200 different items to find, each with its own use or special effect.

- 10 unique levels, each with its own unique atmosphere.

- 12 different monsters to fight against.

- 8 different bosses to face.

- Multiple weapons, each with their own unique special effects.

- 8 different enemies to kill, each with its own unique attack patterns.

- A full set of achievements