Pull to refresh

Cайт на Django-nonrel на платформе Google App Engine для Python

Reading time3 min
Views8.8K
В этой статье я хочу немного рассказать о разработке своего проекта — сайта egaxegax.appspot.com.

Поскольку являюсь большим поклонником языка Python, свой сайт я решил создать на популярном фреймворке Django. Чтобы использовать его на бесплатном хостинге appspot.com, адаптировал код для использования NoSQL версии Django и платформы Google App Engine (GAE).


Сайт существует с 12-го года. Я использую его как платформу для изучения возможностей Django и AppEngine «вживую». Также интересно изучать статистику по нему в Google Webmasters: поисковые индексы, запросы. Например, для себя я выяснил, что Google индексирует для поиска заголовки title, а не содержимое тегов meta.

Началось все с раздела Статьи — небольших заметок на программные темы: скрипты, конфиги, примеры использования. Но статьи быстро закончились. А создавать новые в большом объеме не получается. Нужно было что-то большее.

Как-то где-то в Сети я скачал архив файлов с текстами и аккордами песен. Добавил к ним пару десятков своих подборов и решил выложить все на сайт. Всего получилось около 25000 файлов. Вручную столько не загрузить. Для этого я написал скрипт song_conv.bat, который преобразует текстовые файлы в дампы для загрузки данных таблиц в GAE DataStore.

Загрузку данных пришлось разделить на несколько этапов из-за ограничений на количество операций записи в сутки в DataStore. В сутки получалось записывать около 700-800 записей (файлов).

Таким способом я загружал первую порцию текстов объектом около 11000 файлов (записей в DataStore). После этого я написал скрипт song_upload.py для загрузки данных через РОST-запрос по HTTP-протоколу. Таким образом я имитирую заполнение полей формы ввода и обработка идет через тот же контроллер. Скорость загрузки данных уменьшилась, но зато я могу отладить локально вставку данных.

После загрузки данных через некоторое время при открытии страницы сайта все чаще стала возникать ошибка 503 Server Error: Over Quota. Поизучав логи на сервере, я выяснил, что главными пользователями моего сайта были GoogleBot и YandexBot, которые обращаются к страницам с интервалом в 2-3 минуты. Ошибка возникает из-за превышения ограничения количества операций в сутки на чтение из DataStore.

Посмотрев документацию и примеры по AppEngine, я понял, что совсем не использовал модуль cache (а именно Memcache). Каждое открытие страницы вызывало обращение к базе данных через QuerySet. В новой схеме результаты выборок из рекордсетов QuerySet я передаю в списки Dictionary, которые сохраняются в кэш и считываются оттуда при повторном обращении. Это решило проблему с быстрым исчерпанием лимита на чтение.

Позже я добавил раздел Фото и Новости. Разделы оформлены как отдельные приложения (apps). Данные хранятся в таблицах DataStore. Раздел Фото также использует хранилище файлов BlobStore. Все приложения используют кэш при выборке данных.

По аналогии с разделом Аккорды я заполняю раздел Книги, куда выкладываю тексты электронных книг. Тексты книг я получаю, распаковывая файлы *.epub с помощью скрипта book_conv_up.py из каталога /media/scripts. В отличие от текстов песен они намного больше в объеме и не могут быть целиком отображены на странице. Кроме того, возникла проблема с тем, что книга целиком не может быть добавлена в кэш из-за превышения лимита памяти кэша. Для этого я считываю, помещаю в кэш и отображаю их по главам.

Для заполнения разделов Фото и Книги я написал скрипты photo_upload.py и book_upload.py как и для заполнения текстов песен.

На сайте есть встроенная в Django авторизация пользователей и добавление новых с проверкой через Captcha.

Кому интересно заходите на страницу проекта в репозитории GitHub django-egaxegax.
Tags:
Hubs:
If this publication inspired you and you want to support the author, do not hesitate to click on the button
Total votes 17: ↑6 and ↓11-5
Comments6

Articles