Когда-то преподаватели беспокоились об опасностях CliffsNotes — учебных пособий, в которых великие литературные произведения представлялись в виде серии пунктов, которые многие студенты использовали в качестве замены фактического чтения.
Сегодня это кажется странным.
Внезапно на рынке появились новые потребительские инструменты искусственного интеллекта, которые могут взять любой фрагмент текста, аудио или видео и предоставить такое же упрощенное резюме. И эти резюме — не просто серия шутливых текстов, разбитых по пунктам. Сегодня у студентов есть такие инструменты, как NotebookLM от Google. превратить свои конспекты лекций в подкастгде солнечно звучащие боты искусственного интеллекта подшучивают и высмеивают ключевые моменты. Большинство инструментов бесплатны и выполняют свою работу за считанные секунды одним нажатием кнопки.
Естественно, все это вызывает беспокойство у некоторых преподавателей, которые видят, как студенты перекладывают тяжелую работу по синтезу информации на ИИ с невиданной ранее скоростью.
Но общая картина усложняется, особенно по мере того, как эти инструменты становятся все более распространенными и их использование становится стандартом в бизнесе и других контекстах за пределами учебной аудитории.
И эти инструменты служат особым спасательным кругом для нейроотличных студентов, которые внезапно получают доступ к услугам, которые могут помочь им организоваться и улучшить понимание прочитанного, говорят эксперты по преподаванию.
«Универсального ответа не существует», — говорит Алексис Пирс Коделл, преподаватель информатики в Университете Индианы в Блумингтоне, который недавно выполнил задание, в ходе которого многие студенты поделились своим опытом и опасениями по поводу инструментов ИИ. «Студенты-биологи будут использовать его одним способом, студенты-химики — другим. Все мои ученики используют его по-разному».
«Это не так просто, как предположить, что все ученики — мошенники», — подчеркивает преподаватель.
«Некоторые студенты были обеспокоены необходимостью использовать инструменты — если все их сверстники делали это, то они должны это делать, даже если они чувствовали, что это мешает их подлинному обучению», — говорит она. Они задают себе вопросы вроде: «Помогает ли мне это выполнить это конкретное задание или этот конкретный тест, потому что я пытаюсь пройти пять классов и подать заявку на стажировку» — но за счет обучения?
Все это создает новые проблемы для школ и колледжей, поскольку они пытаются установить границы и политику использования ИИ в своих классах.
Потребность в «трении»
Кажется, что почти каждую неделю — или даже каждый день — технологические компании объявляют о новых функциях, которые студенты внедряют в учебу.
Например, буквально на прошлой неделе Apple выпустила функции Apple Intelligence для iPhone, и одна из функций может преобразовать любой фрагмент текста в разные тонанапример, случайный или профессиональный. А в прошлом месяце производитель ChatGPT OpenAI выпустил функцию под названием Холст который включает в себя ползунки, позволяющие пользователям мгновенно менять уровень чтения текста.
Марк Уоткинс, преподаватель письма и риторики в Университете Миссисипи, говорит, что он обеспокоен тем, что студенты соблазняются обещаниями экономии времени с помощью этих инструментов и могут не осознавать, что их использование может означать пропуск реальной работы, необходимой для усвоения и запомнить материал.
Получите бесплатную доставку журналистских материалов EdSurge на свой почтовый ящик. Подпишитесь на нашу рассылку.
«С точки зрения преподавания и обучения это меня очень беспокоит», — говорит он. «Потому что мы хотим, чтобы наши ученики немного боролись, испытывали небольшие разногласия, потому что это важно для их обучения».
И он говорит, что из-за новых функций учителям становится сложнее поощрять учащихся использовать ИИ полезными способами — например, учить их создавать подсказки для изменения уровня написания чего-либо: «Это устраняет последний уровень желательной сложности, когда они могут просто нажать кнопку смешайте и получите окончательный вариант, а также получите отзывы о окончательном варианте».
Даже профессорам и колледжам, принявшим политику в области ИИ, возможно, придется переосмыслить ее в свете этих новых типов возможностей.
Как выразились два профессора недавняя статья«Ваша политика в области ИИ уже устарела».
«Студент, который читает загруженную вами статью, но не может вспомнить ключевой момент, использует ИИ-помощника, чтобы подвести итог или напомнить ему, где он что-то прочитал. Этот человек использовал ИИ, когда в классе был запрет?» спросите авторов, Зака Джастуса, директора по развитию профессорско-преподавательского состава Калифорнийского государственного университета в Чико, и Ника Яноса, профессора социологии. Они отмечают, что популярные инструменты, такие как Adobe Acrobat, теперь имеют функции «ИИ-помощника», которые могут суммировать документы одним нажатием кнопки. «Даже когда мы оцениваем наших коллег по срокам пребывания в должности и продвижению по службе, — пишут профессора, — нужно ли вам обещать не нажимать кнопку, когда вы просматриваете сотни страниц студенческих оценок преподавания?»
Профессора утверждают, что вместо того, чтобы разрабатывать и пересматривать политику в области ИИ, преподавателям следует разработать общие рамки приемлемой помощи со стороны чат-ботов.
Но Уоткинс призывает создателей инструментов искусственного интеллекта делать больше для уменьшения злоупотреблений их системами в академических условиях или, как он выразился в беседе с ним из EdSurge, «убедиться, что этот инструмент, который так широко используется студентами, [is] на самом деле эффективен для их обучения, а не просто как инструмент для его разгрузки».
Неравномерная точность
Эти новые инструменты искусственного интеллекта ставят перед собой множество новых задач, помимо тех, которые возникали, когда печатные заметки CliffsNotes были инструментом обучения в настоящее время.
Во-первых, инструменты обобщения ИИ не всегда предоставляют точную информацию из-за феномена больших языковых моделей, известных как «галлюцинации», когда чат-боты угадывают факты, но представляют их пользователям как достоверные факты.
Например, когда Бонни Стаховяк впервые попробовала функцию подкаста на Google NotebookLM, она сказала, что была поражена тем, насколько реалистично звучали голоса роботов и насколько хорошо они резюмировали документы, которые она ему загружала. Стаховяк — ведущий давнего подкаста. Преподавание в высшем образованиии декан факультета преподавания и обучения в Университете Авангард в Южной Калифорнии. В ходе преподавания она регулярно экспериментирует с новыми инструментами искусственного интеллекта.
Но по мере того, как она больше пробовала этот инструмент и добавляла документы по сложным темам, которые она хорошо знала, она замечала случайные ошибки или недоразумения. «Он просто сглаживает это — упускает все эти нюансы», — говорит она. «Это звучит так интимно, потому что это голос, а звук — такая интимная среда. Но как только это станет чем-то, о чем вы много знаете, все потерпит неудачу».
Несмотря на это, она говорит, что нашла функцию подкастинга NotebookLM полезной, помогая ей понимать и сообщать о бюрократических проблемах в ее университете — например, превращая часть справочника факультета в краткое изложение подкаста. Когда она проверила это с коллегами, которые хорошо знали эту политику, она сказала, что, по их мнению, она «отлично сработала». «Это очень хорошо делает двумерную бюрократию более доступной», — говорит она.
Пирс Коделл из Университета Индианы говорит, что ее студенты также поднимают этические проблемы при использовании инструментов искусственного интеллекта.
«Некоторые говорят, что их действительно беспокоят экологические издержки, связанные с генеративным ИИ и его использованием», — говорит она, отмечая, что ChatGPT и другие модели ИИ требуют большого количества вычислительной мощности и электроэнергии.
Другие, добавляет она, беспокоятся о том, сколько данных пользователи в конечном итоге передают компаниям, занимающимся искусственным интеллектом, особенно когда студенты используют бесплатные версии инструментов.
«Мы не будем об этом говорить», — говорит она. «Мы не обсуждаем, что значит активно сопротивляться использованию генеративного ИИ?»
Несмотря на это, преподаватель видит положительное влияние на учащихся, например, когда они используют инструмент, помогающий создавать карточки для изучения.
И она услышала об студенте с СДВГ, который всегда находил чтение большого текста «непосильным», но использовал ChatGPT, «чтобы преодолеть препятствие первоначального участия в чтении, а затем они проверяли свое понимание с помощью ChatGPT. »
А Стаховяк говорит, что слышала о других инструментах искусственного интеллекта, которые используют студенты с ограниченными интеллектуальными возможностями, таких как один это помогает пользователям разбивать большие задачи на более мелкие и более управляемые подзадачи.
«Это не измена», — подчеркивает она. «Это нужно разобрать все по полочкам и оценить, сколько времени что-то займет. Это не то, что естественно для многих людей».