Not sure, let us know if you have problems.
I do not think it would have a problem.
Осмелюсь перевести с заморского на наш русский-бытовой.
- Мы ни разу не пробовали вывести 1000 материалов, но проблемы скорее всего будут.
Сообщите нам о результатах, нам тоже интересно.
Мы конечно попытаемся помочь, но ничего не обещаем, ибо решения нет.
В общем ребята эти - что-то "знающие не договаривающие оптимисты" =)
PS Кстати, стоит обратить внимание на короткие ответы их саппорта. После покупки не факт что они увеличатся и будут более информативны.
Мое скромное мнение такое (вдруг кому интересно, а я выговорюсь заодно...)
Для рендеринга 1000 материалов на одной странице нужно немереное кол-во оперативной памяти.
На вскидку ~100-150мб(!!!) для одной страницы. А обычно для сайта хватает порядка 20-30
Время чистого рендеринга материала, примерно по 10мс на каждый, и того более 5 секунд гарантированно.
Думаю, что ваш хостер быстро поможет выбрать новый тариф с более высокими лимитами или попросит "съехать".
Далее...
Каждая из этих точек будет делать запрос в API Google, чтобы по названию определить координаты.
Умножайте время одного запроса (~20-40 мс) на 1000, итого +/- пара десятков секунд и возможный временный бан от Google.
У них кстати есть суточные ограничения на кол-во запросов. Что-то вроде 10 или 100 тысяч.
Даже если все эти 1000 точек волшебным образом окажутся в кеше сайта Joomla (запросы к API кешируются всегда), то помешает следующий фактор.
Взглянем на пример инициализации с оф сайта
http://www.yootheme....it/examples/mapЭто исходный код инициализации первой карты для 4 точек
Мысленно умножаем объем примерно 200 раз и получаем примерный размер страницы, которая будет отправлена браузеру. Мой виндовый калькулятор подсказывает мне страница будет весить примерно 4 мб (вместо привычных 50-100кб) Даже если трафик будет архивироваться, то максимум сожмется до 2мб. Но это откровенная дикость!
Окей... закроем глаза на размеры страницы. И просто на миг представим как браузер, даже если это Chrome, пытается переварить это. Я пытался как-то давно в хроме открывать раскрашенный XML размером 2.5 мб Ждал минуты 3
Итого, что я вижу
Мы рисуем на сервере 1000 материалов
- База данных отдаст их и даже не запнется, запрос простейший.
- Процессор будет долго тупить на огромной массе одинаковых операций (+ 3-10 сек)
- Огромное кол-во запросов к внешнему API (как минимум один раз) (+ 10-20 сек)
- Все это должно поместится в серверный лимит по памяти (+ 150мб)
- Создается большой HTML с встроенным JSON весом в мегабайт и выше
- Пользователь скачивает сайт в буквальном смысле
- Ждет пару тройку минут пока его браузер "отпустит"
=> Посещаемость 3 человека (разработчик, клиент, случайный и отважный человек)
PS Смеха ради представим как роботы (спамеры и поисковики) ходят и грузят сайт.
А это примерно 50-80% трафика.
Извините конечно, но вы действительно не понимаете масштабность всей трагедии с 1000 точками на одной карте?
Варианты решения
- Делать динамическую подгрузку
- Упростить задачу
- Отказаться от идеи