Как добиться быстрой работы с таблицей с большим количеством данных?
Используется Postgresql. У меня есть таблица content, в которой предполагается множество записей (миллионы). Но при этом большинство записей будут "архивными" и только 1-5% актуальными. Кроме того, предполагается, что почти у всех актуальных записей будут черновики. Итого имеем 3 типа контента.
Один из способов оптимизации задачи: разбить таблицу Content на 3 таблицы: content, archive_content и draft_content. С одно стороны кажется хорошей идеей, но выглядит не очень. Может быть есть лучше варианты? Если использовать партиционирование по данным, то делать выборки станет крайне сложно и управлять этим.