Андрей, как-то не очень понятно ты пишешь. 2гб это обычно ограничение на размер файла базы данных (бывает допустимый размер и до 4гб). Если у тебя dbf, то это размер одной таблицы. Чтобы угнать систему в своп, надо забить используемыми данными всю память. Скорее всего, речь идет не о своппинге, а о повторном чтении с диска.
Если вся база помещается в оперативной памяти, то операционка ее туда кэширует при первом обращении, и затем читает из кэша. Если не помещается, то при разных обращениях считывает заново с диска. Чтение с диска будет заметно медленнее. Но надо учитывать, что в нормальных библиотеках, работающих с файлами базы данных, не все затягивается в оперативку. Если используется индекс, то там оптимизированный поиск по каждому уровню (полю). Поэтому обычно говорят о кэшировании в оперативной памяти дневных обращений к базе данных. Тут очень хорошо помогает использование ssd, который в значительной мере компенсирует это.
Когда у меня самая большая база данных стала подходить к предельным цифрам, то я переключил ее на актиан зен. Поскольку раньше его не использовал, то решил не включать режим сжатия записей. В результате база выросла в несколько раз. На каком-то этапе дневные обращения перестали помещаться к кэше актиан зен (он использует свой, кэш операционной системы не рекомендуют), скорость построения объемных отчетов стала проседать. Поставили вместо hd ssd, все закрутилось почти так же, как в случае, когда все дневные обращения помещались в кэше. Потом еще переключил работу с ресурсоемкого фифо на среднескладские цены (в этой ситуации фифо не имело смысла из-за большого процента пересортицы), все заработало стабильно быстро.
Еще надо учесть, что при использовании какого-нибудь сервера базы данных, сам сервер может быть 64 бита, а приложения, работающие с ним, 32 битными. Было бы неплохо иметь возможность работать с файловыми базами, размер таблиц которых превышает 2гб, но все же тут, наверно, более оправдано применение специализированных серверов баз данных.
Мерить скорость по базам 1с может быть интересно только 1с-никам. Там довольно специфичная работа с данными.