Даже собственные разработки по проверке текстов на плагиат, которые применяют крупные SEO-компании, а таких среди фирм, принимавших участие в опросе, – только 3%, имеют ряд недостатков. Например, системы, алгоритм работы которых держится в секрете, могут посчитать неуникальными предложения с терминами, фразеологизмами.
Основная проблема всех тестирующих программ – непрозрачность. Обычному пользователю не всегда понятны методы, применяемые для выявления плагиата.
- Почему, например, программа снижает процент уникальности, выделяя в статье по одному слову, почему превращает полностью уникальный текст в частично уникальный после исключения из него последнего абзаца или предложения?
- Почему разные сервисы показывают разный процент использования чужого контента в одном тексте (отличия могут быть как на уровне 5-10%, так и 40-50%)?
- Почему один и тот же ресурс выдает разную уникальность, если используются различные его версии, к примеру, бесплатная и платная, настройки, в частности, глубокая и неглубокая, разное время проверки?
Вопросов много – решение одно. Если есть возможность, чтобы добиться максимальной уникальности материалов, стоит тестировать их в разных системах, в разное время, при различных настройках.