Наконец, у меня появился повод расчехлить
локальную ИИшку которую я установил себе на Samsung S24+ несколько месяцев назад. Приложение еще тогда, в апреле, скачало мне модель на 4Гб - LITE 3B model (phi 2).
И вот на этих выходных когда мне понадобилось объяснить детям что такое процесс горения и я исчерпал свои школьные и университетские знания я прибег к помощи Layla. Почему не к перплексити или википедии? Потому что интернет там не работал совсем. То есть я спросил модель, которая крутилась исключительно локально на моем смартфоне и не обменялась ни одним байтом с глобальной паутиной при выдаче информации. Ответ я получил частично на русском, частично - на английском. Местами с какими-то непонятными xml тегами, но получил! Там были даже формулы, объяснение и ответ на уточняющий вопрос! С задачей ИИшка справилась!
Для сравнения: русская википедия без картинок занимает 10 Гб. Возможно, она справилась бы точнее и на 100% без галлюцинаций. Но не факт что быстрее.
#global #app #llm #ai