Pull to refresh
18
0
Егор @penguino

User

Send message
Анализаторы состоят из одного Tokenizer и нескольких необязательных TokenFilters. Tokenizer может предшествовать нескольким CharFilters.

Поправьте меня, если я что-то не так понял, но по логике сначала идет обработка с помощью CharFilters, затем Tokenizer, а потом TokenFilters. То есть сначала обрабатываем строку целиком, потом разбиваем ее на токены, потом обрабатываем токены. В таком случае Tokenizer не предшествует CharFilters, а следует за ними, то есть они ему предшествуют.
Было бы лучше, если добавить описание установки пакета и озвучить в начале, какая версия Python используется в примерах.

Про python3 — не заметил, потому что файл в последнюю очередь копировал. Тогда, вероятно, какие-то из библиотек уже deprecated.

Спасибо за туториал, скопировал себе файл и адаптировал под python3 (насколько я понял, мануал для python2.7? Потому что после установки библиотеки pip'ом проект у меня не заработал). В итоге сборку сервисов (sheets и drive) делал так:


from google.oauth2.service_account import Credentials
from googleapiclient.discovery import build
credentials = Credentials.from_service_account_file(json_key_filename, scopes=SCOPES)
service = build('sheets', 'v4', credentials=credentials)

Еще хотел добавить, что при добавлении spreadsheet или нового листа значения для количества строк и колонок по умолчанию лучше выставить в 0. В таком случае создастся табличка 1000хZ (то есть, то же самое, что у вас, просто это будут "родные" для апи значения по умолчанию).


И — toGridRange будет работать только для диапазона A-Z? Конечно, это редкая ситуация, но колонок может быть и больше (я проверял). Для себя я пока оставил код в этом методе как есть, но, думаю, для универсальности, лучше его обновить.

Спасибо за критику. Думаю, что последую этому совету.

Information

Rating
Does not participate
Location
Ижевск, Удмуртия, Россия
Registered
Activity