Здесь вы узнаете, как использовать ChatGPT для извлечения наиболее повторяющихся запросов из одного, двух и трех слов из файла Excel. Этот анализ дает представление о наиболее часто используемых словах в анализируемом субреддите, выявляя общие темы. В результате получается лист Excel с тремя вкладками, по одной для каждого типа запроса.
Содержание
Структурирование приглашения: объяснение библиотек и ресурсов
В этом приглашении мы дадим команду ChatGPT прочитать файл Excel, манипулировать его данными и сохранить результаты в другой файл Excel с помощью библиотеки Pandas. Для более целостного и точного анализа объедините столбцы «Названия вопросов» и «Текст вопросов». Такое объединение предоставляет более богатый набор данных для анализа.
Следующий шаг — разбить большие куски текста на отдельные слова или строки слов — процесс, известный как токенизация. Библиотека NLTK может эффективно справиться с этой задачей.
Кроме того, чтобы гарантировать, что токенизация захватывает только значимые слова и исключает общие слова и знаки препинания, приглашение включает инструкции по использованию инструментов NLTK, таких как RegexpTokenizer и стоп-слова.
Чтобы улучшить процесс фильтрации, наше приглашение предписывает ChatGPT создать список из 50 дополнительных стоп-слов, отфильтровывая неофициальные фразы или общие выражения, которые могут появляться в обсуждениях субреддита, но не включены в стоп-слова NLTK. Кроме того, если вы хотите исключить определенные слова, вы можете вручную создать список и включить их в приглашение.
После очистки данных используйте класс Counter из модуль коллекций определить наиболее распространенные слова или фразы. Сохраните результаты в новом файле Excel под названием «combined-queries.xlsx». Этот файл содержит три отдельных листа: «Запросы из одного слова», «Запросы из двух слов» и «Запросы из трех слов», каждый из которых представляет запросы вместе с частотой упоминания.
Структурирование подсказки обеспечивает эффективное извлечение, обработку и анализ данных с использованием наиболее подходящих библиотек Python для каждого этапа.
Протестированный образец запроса на извлечение данных с предложениями по улучшению
Ниже приведен пример подсказки, в которой отражены вышеизложенные моменты. Чтобы использовать это приглашение, просто скопируйте и вставьте его в ChatGPT. Важно знать, что вам не обязательно строго следовать этому совету; не стесняйтесь адаптировать его к вашим конкретным потребностям.
«Давайте извлечем наиболее повторяющиеся запросы из одного, двух и трех слов из файла Excel с именем ‘{имя файла}.xlsx.’ Используйте библиотеки Python, такие как Pandas, для манипулирования данными.
Начните читать файл Excel и объедините столбцы «Названия вопросов» и «Текст вопросов». Установите и используйте библиотеку NLTK и необходимые ресурсы, такие как Punkt, для токенизации, гарантируя, что во время этого процесса знаки пунктуации и другие небуквенно-цифровые символы будут отфильтрованы. Токенизировать объединенный текст для создания запросов из одного, двух или трех слов.
Прежде чем анализировать частоту, отфильтруйте общие стоп-слова с помощью библиотеки NLTK. В дополнение к стоп-словам NLTK добавьте дополнительный список стоп-слов с 50 распространенными вспомогательными глаголами, сокращениями и неформальными фразами. Этот дополнительный список должен быть сосредоточен на таких фразах, как «Я бы», «Я бы», «Я не делаю» и т. д., и его следует использовать со стоп-словами NLTK.
После очистки данных используйте класс Counter из модуля Collection, чтобы определить наиболее распространенные запросы из одного, двух и трех слов.
Сохраните результаты на трех отдельных листах в новом файле Excel с именем «combined-queries.xlsx». Рабочие листы должны называться «Запросы из одного слова», «Запросы из двух слов» и «Запросы из трех слов». На каждом листе должны быть перечислены поисковые запросы и количество раз, когда они были указаны на Reddit.
Покажите мне список пяти самых популярных запросов и их номера для каждой группы в трех таблицах».
Оптимизация количества ключевых слов для более быстрого вывода
При извлечении данных из множества запросов рассмотрите возможность запроса меньшего количества ключевых слов в качестве выходных данных, чтобы ускорить процесс. Например, если вы извлекли данные из 400 вопросов, вы можете попросить ChatGPT отображать только три самых популярных ключевых слова. Чтобы просмотреть больше ключевых слов, просто загрузите файл. Такой подход сократит время обработки ChatGPT.
Оптимизация приглашения прямого вывода
Если вы продолжаете сталкиваться с перебоями, но не заинтересованы в понимании рабочего процесса, рассмотрите возможность добавления следующей строки в конец вашего приглашения: «Никаких объяснений не требуется; просто дайте результат.» Эта директива предписывает ChatGPT сосредоточиться на доставке желаемого результата.
Анализ SEO на основе данных с помощью ChatGPT
Теперь вы подготовили два набора данных; первый — это список вопросов и их URL-адресов, количество ответов и голосов «за». Между тем, второй представляет собой список поисков из одного, двух и трех слов.
Чтобы проанализировать или визуализировать эти данные с помощью ChatGPT, используйте плагин Noteable или загрузите файлы Excel из приложения Noteable и загрузите их в инструмент анализа данных ChatGPT. В этом руководстве продолжайте использовать плагин Noteable, чтобы обеспечить согласованность в одном чате.