В плане нейросетей проблема не столько в уникальности, сколько в большом количестве неотработанной семантики. Семантики, в которую входят слишком низкочастотные запросы, чтобы писать по ним отдельные статьи.
А вот когда тексты сильно упростятся в производстве благодаря нейросетям, тогда мы столкнемся с наводнением интернета кучей текстов. И, в первую очередь, по таким низкочастотным запросам. Т.е. нейросети будут просто высасывать контент из низкочастотных запросов, и требования к качеству таких текстов будут низкими.
Это будет оправдано, потому что и конкуренция среди таких текстов будет низкая. Сейчас, например, ее вообще почти нет. Есть куча ключей, по которым вообще нет напрямую соответствующих им статей.
Затем по тому же принципу люди продолжат накидывать тексты по различным запросам с помощью нейросетей. И уже тогда конкуренция в выдаче начнется с точки зрения качества текста, а не отработанных ключей. Требования к качеству резко вырастут, когда вся семантика будет забита, и уже тексты начнут конкурировать друг с другом. Тогда все займутся тем, чтобы повышать экспертность сгенерированных текстов. Например, будут улучшать визуальное повествование или отрабатывать технические ошибки на сайтах.
Но если говорить про отношение к уникальности, то в этом плане нейросети упростят работу. Например, отрерайтить что-то с помощью нейросети будет намного проще и быстрее, чем вручную.