rizakrko
Мені теж з однієї сторони подобається що конкурентів фактично немає і роботою я забезпечений назавжди і під чергу, а з іншої дещо лячно щодо того що ці персонажі з чатжпт нацифровізують всюди де та цифровізація пролізе.
Scoffer: ↑
23.12.2024 00:04rizakrko
Мені теж з однієї сторони подобається що конкурентів фактично немає і роботою я забезпечений назавжди і під чергу, а з іншої дещо лячно щодо того що ці персонажі з чатжпт нацифровізують всюди де та цифровізація пролізе.
Не сумуй, шукай Райзен на 256 корів, бо скоро ті клієнти на 128 покрешаться
Наче є двохсокетні навіть, вистачить на пару ітерацій гпт кодінгу
dead_rat
Таку фігню вони і без мене знайдуть. До мене приходять коли ядра в продажу закінчуються
Відправлено через 14 хвилин 52 секунди:
Ну або коли якийсь босс починає підозрювати шо сто тишь баксів на місяць в хмарах для сервіса на пару сот корп користувачів, котрі туди заходять два рази на тиждень - якось забагато
Зараз займаюся вивченням і використанням API OpenAI, то мені надали доступ до o1-preview та o1-mini навіть на безкоштовній підписці (умовно, бо за токени таки беруть гроші) то для кодингу рекомендують саме o1-mini. Не пробував - дорого. Використовую 3,5-турбо а там, окрім текстів запиту і системного контексту є ще параметр: температура, що відповідає за креативність(варіативність) відповіді - від 0, де відповідь буде одна слово в слово, до 9, де відповіді можуть бути кардинально протилежні. От вона на мою думку і відповідає за галюцинації. І ще, GPT це не пошуковик чи порадник, це генератор тексту на основі існуючих текстів. Він може допомогти написати текст якщо було це написано в статті, коли це було написано і мати це на увазі, але не розрізняє важливість цих складових, не робить аналіз чи узагальнення без потреби. Тому при роботі я уточнюю, прошу узагальнити і вказую на помилки при відповідях, щоб більше вони не повторювалися. Це як з дитиною-вундеркіндом: багато знань є, але користуватися і робити висновки з цього знання не уміє - бо в одній книзі написано одне, в іншій - трохи інакше, а в тертій - протилежне. В нових версіях онлайн пошук додали, але чат користується цим лише по запиту, щоб уникнути проблем з авторськими правами, і пише лише по претренованому, тому і не дуже добре з цим справляється. Чув від одного з програмістів, що вже потрібно заводити свого Трансформера на основі загальнодоступних (GPT - Generative Pretrained Transformer) і навчати на власному коді або коді еталонної якості, документації фреймворків, і потім його використовувати як помічника для кодингу... І це, на мою думку, має сенс.
maxud_b
Рекомендую уточнити що саме означає параметр temperature
Якщо б вони могли позбавитися галюцинацій просто вказавши цей параметр, як ви гадаєте, коли б це було зроблено?
Ох уж этот современный ИИ, вроде работает, но есть нюанс.
maxud_b: ↑
23.12.2024 12:28що вже потрібно заводити свого Трансформера на основі загальнодоступних (GPT - Generative Pretrained Transformer) і навчати на власному коді або коді еталонної якості, документації фреймворків, і потім його використовувати як помічника для кодингу
Если такой довести до ума, то уже можно продавать его услуги, а не разрабатывать. А вот довести до ума такой продукт будет не просто, мягко говоря. Топ конторы же этим и занимаются, и там шероховатость на шероховатости (на волнах галлюцинаций катается).
Не згоден. Нейромережі різні бувають. Наприклад - розпізнавання тексту. Зараз вони майже з 100% точністю розпізнають текст. Просто GPT генератор тексту, як нанаєць з анекдотів - про що бачить про те й співає, а не аналізує. Він відгадує як потрібно скласти букви(наспаравді, склади або корені слів) в слова, слова в речення, речення в текст і щоб тобі сподобалося. І на мою думку, результат вражаючий. Треба робити спеціалізовані програми для кожної задачі (з послідовним виконанням, як то узагальнення, потім віділення головної думки, потім знаходження відповідностей і нарешті написання висновку) окремо і тоді результат буде набагато кращим, але не 100%, бо і людина помиляється.
P.S. Зараз якраз дали цікаве тестове (я його завалив благополучно...) - зробити аналіз і визначити якість в цифровому еквіваленті написаного коду. Так 3,5-турбо, 4о-mini справляються згідно еталону відповідь скласти, а от 4-turbo - ні. Бо є ще в ML проблема перенавчення моделі, коли працюючу намагаються покращити, але лише погіршують ситуацію через черезмірну увагу до деталей, шумів на фоні яких ватрачаються основні причини правильних відповідей.
Востаннє редагувалось 23.12.2024 13:12 користувачем maxud_b, всього редагувалось 1 раз.
Розпізнавання тексту це взагалі супер легко у порівнянні з генерацією коду. Умовно проматчити картинку на одну з 33х чи 26 літер, а потім порівняти слова зі словником щоб пофіксити помилки.
maxud_b
Ти плутаєш два принципово різні завдання: класифікація і генерація. З класифікацією нейронки пораються +/- нормально. Осмислена генерація для них взагалі не доступна. Для осмислення треба незрівнянно більше обчислювальних потужностей. Зараз справжні штучні інтелекти в лабораторних зразках знаходяться десь між стадією дуже розумного таргана і максимально тупої миші. А ти хочеш щоб нейронка тобі внятний код писала
Зараз GPT вірші пише, музику, картини малює, а не те що код, де майже все стандартизовано і є найкращі практики, бойлерплейти, шаблони, патерни. Але донавчати в стислі строки, валідувати і встигати за розвитком фреймворків і бібліотек поки що не можуть, або можуть, але мовчать і використовують.