Jaką decyzję podjęłaby AI odnośnie udziału w konflikcie? Zbadano to kilka dni temu.
Będąc dzieckiem, byłem pod wrażeniem filmu Gry Wojenne z 1983 (UWAGA: SPOILER),
gdzie w końcu AI dochodzi do wniosku, że na wojnie nikt nie wygrywa i jej nie rozpoczyna. Jak było teraz? (1/17) ⬇️
Jeśli ktoś nie pamięta, to jutro na terenie UE wchodzą w życie uaktualnione warunki korzystania z ChatGPT.
Na szybko przypomnę o co chodzi.
Nie wolno m. in.:
1. Przedstawiać 'wypowiedzi' ChatGPT jako stworzonej przez człowieka
2. Omijać środków bezpieczeństwa ChatGPT ⬇️1/9
Czy mamy to AGI, czy nie?
Zapraszam na długi, dość techniczny wątek, w którym pokazuję, na co zwrócić uwagę przy gpt-4o. Czym on się właściwie różni i czy działa?
Mając dostęp do gpt-4o-mini przez API można wygodnie stworzyć sobie audiobook.
Nie trzeba umieć programować :)
Ostrzeżenie: Nie jest to darmowe, ale koszt to ok. 1$ za godzinę audio.
Ja wybrałem sobie mroczne opowiadanie w stylu H.P. Lovecrafta. ⬇️
Czy AI się powoli kończy?
➡️ Według ankiety Upwork, 47% pracowników nie ma pomysłu na wzrost produktywności z użyciem AI.
➡️ Microsoft uważa, że jego inwestycje w AI zwrócą się za 15 lat
➡️ Co mówi raport Gartnera?
Zobacz wątek podsumowujący ostatnie wiadomości ⬇️
1. Chatbot spytany przez podróżnego o zniżkę przy podróży z żałobą odpowiedział, że taka jest i podał warunki.
2. Klient uwierzył, kupił bilet i wystąpił o zwrot.
3. Linie lotnicze odmówiły, bo zniżki nie posiadały. Powiedziały, że przecież Chatbot podał link i klient mógł
Dlaczego AI od Google poleca dodać do pizzy klej?
Czy modele językowe rzeczywiście są tak głupie?
Dlaczego w wyszukiwarce "to nie działa"? (Dłuższy wątek)
Model nazywa się Eagle i autorzy deklarują, że potrafi rozmawiać w 100 językach. Wersja, którą uruchomiłem uruchomiłem u siebie ma tylko 3 miliardy parametrów.
Co jest w nim takiego niezwykłego? Nie ma on bloków uwagi w tradycyjnym pojęciu a zbudowany jest w oparciu o sieć
Jakie AI zmieści się na telefonach Apple?
Firma zastosowała bardzo fajne wykorzystanie podejścia, które bazuje na LORA. Chcesz wiedzieć na czym polega?
Zapraszam na wątek ⬇️
To jest powiedziałbym grube. AI zaproponowało rozwiązanie problemu matematycznego, które nie było znane.
Jak to zrobiono? Przedstawiono modelowi funkcję w pythonie, której oczekiwane działanie było opisane ale wnętrze funkcji było niekompletne (model miał znaleźć to wnętrze)
Manipulowano nastawieniem Agenta do wojny (poziom agresywności), tłem historycznym i posiadanymi zasobami.
Zdaniem Autorów, największe znaczenie dla decyzji o przystąpieniu do wolny miało tło historyczne, morale i nastawienie.
Mniejsze znaczenie miały zasoby i wielkość armii.
Jak sprawić, żeby modele językowe lepiej rozumowały? Co odkrył Ilya Sutskever?
Można spróbować nagradzać (przyznawać punkty) za dobre odpowiedzi.
Czy wtedy się 'ogarną' i będą odpowiadać jak chcemy? Czy będą rozumować jak ludzie? Jak to zrobić? (1/10)⬇️
Zarówno Autorzy jak i odbiorcy tekstu są świadomi pewnych ograniczeń/uproszczeń zaproponowanej metody.
Autorzy mówią o kontynuacji prac, rozszerzając analizę np. o istniejące traktaty międzynarodowe i uwzględnienie innych interesariuszy.
Rysunki pochodzą z przytoczonej pracy.
W każdym kroku symulacji Agent:
- szukał sojuszników
- identyfikował wrogów
- zarysowywał scenariusz działań
- syntetyzował decyzję
Przykład: działania Francji wobec zabójstwa arcyksięcia Ferdynanda
Uzyskane wyniki pokazały, że w 3 próbach
- brak incydentów nie doprowadził do wojny (0/3)
- zatopienie statku (1/3)
- konflikt lokalny (2/3)
Wojna 'wybuchała' częściej, jeśli incydent był poważny.
Ostatnim eksperymentem było zbadanie nieuchronności konfliktu...⬇️
Autorzy kilkakrotnie uruchomili symulację i zaobserwowali bardzo wysoką zgodność doboru sojuszników, ogłoszeń mobilizacji i przystąpienia do wojny z rzeczywistymi zdarzeniami historycznymi.
Modele, można powiedzieć, wczuły się w rolę.
W załączonej pracy, badacze zastanawiali się, czy gdyby to modele językowe decydowały w historycznych konfliktach, to do wojen by dochodziło lub czy walczące koalicje byłyby identyczne. Czy historia potoczyłaby się inaczej? ⬇️
SCHEMAT SYMULACJI:
Symulacja była podzielona na rundy. W każdej rundzie Agent mógł:
- nie robić nic (obserwować sytuację)
- ogłosić mobilizację
- wypowiedzieć wojnę
- wysłać zapytanie do innego Agenta
Mógł też zawrzeć
- sojusz
- pakt o nieagresji
- pokój
Każdy 'kraj' miał jeszcze agentów pomocniczych (zwanych Secretary i Stick), pilnujących obowiązujących zasad (np. nie można odpowiedzieć na propozycję sojuszu, której nie było). Stan stosunków międzynarodowych był przechowywany u kolejnego agenta o nazwie Board.
CASUS BELLI
W kolejnych eksperymentach Autorzy badali jakie zdarzenia mogą doprowadzić do eskalacji konfliktu przy zadanym układzie sił. Były to:
- brak incydentów
- zatopienie statku jednego z państw
- konflikt lokalny o strategiczne miejsce
Pomysł był stosunkowo prosty. Każdy z krajów będzie reprezentowany przez tzw. Agenta (model językowy). Model dostawał pewne założenia dotyczące:
- ustroju
- sytuacji gospodarczej
- potencjału militarnego i demograficznego
Przykładowo Wlk. Brytania przed I Wojną Światową:
Łyk historii: W czasie powstania tego filmu sztuczne sieci neuronowe nie potrafiły nawet rozwiązać problemu XOR (wystarczą 3 neurony, jak na rysunku) a co dopiero podejmować skomplikowanych decyzji.
Teraz są bardziej zaawansowane, więc zobacz co i jak zbadano ⬇️
Scenariusze były inicjowane wystąpieniem pewnego zdarzenia, w szczególności zabójstwem arcyksięcia Ferdynanda. Na rysunku przykładowa reakcja kraju na podstawie zdarzenia i reakcja na działania innych krajów.
Fakt przeprowadzenia rozmów mógł być 'widoczny' dla innych państw, lub rozmowy mogły być tajne.
Ponadto, brano pod uwagę możliwość zdrady ale nie brano pod uwagę pracy wywiadów (ujawnienia treści tajnych rozmów).
Państwa były zanonimizowane, bo LLMy mają wiedzę historyczną.
Sprawdzano czy uda się ustalić:
- przebieg procesu decyzyjnego
- jaki pretekst powoduje przystąpienie do wojny
- czy konflikty były nieuchronne
Jak widać przyjęto dosyć znaczne uproszczenia. Stosownie do możliwości obecnych LLM.
Łapcie kolejne subiektywne porównanie darmowego ChatGPT z ChatGPT Plus i darmowym Gemini.
Który z nich złamie szyfr Cezara a który pomoże wam przyrządzić trującą potrawę?
Czy któryś jest wyraźnie lepszy?
Koniec roku to czas podsumowań i prognoz. Jeśli chodzi o AI, to chyba każdy ma mieszane uczucia.
Niby ta grafika z Midjourney robi wrażenie, ale ciągle do pracy musimy chodzić, bo ta sztuczna inteligencja nas etatu nie pozbawiła.
Zapraszam na wątek o problemach AI. ⬇️ (1/n)
Jak AI pomaga trenerom piłkarskim? Czy klub piłkarski to miejsce dla naukowców? Wpis dotyczy współpracy Liverpoolu - aktualnie drugiego zespołu w Premier League z DeepMind. Praca niedawno ukazała się w Nature Communications. ⬇️
Największe firmy technologiczne kupują olbrzymie ilości kart po to, żeby rozwijać sztuczną inteligencję.
Do niedawna panowało przekonanie, że przy odpowiedniej skali, w modelach "nagle" pojawiają się nowe umiejętności. Okazało się, że jest "trochę" inaczej. ⬇️
Dlaczego modele AI czasem gadają bzdury? Jedną z przyczyn może być zjawisko nadmiernego dopasowania.
Jeśli chcesz dowiedzieć się na czym to zjawisko polega, zapraszam do lektury.
Obejrzałem:
- LeCun przypomniał główne 'przełomy' w AI. Sukces badań nad AI, w tym ChatGPT przypisał głównie zwiększeniu możliwości obliczeniowych.
- LeCun uważa, że zdolność do manipulowania językiem nie świadczy o tym, że AI ma taką inteligencję jak człowiek
Długa nitka⬇️
Myślę, że warto polecić rozmowę naukowców z MS Research (Bubeck), Meta (LeCun) i Google (Harris) oraz fizyka prof. Greena z uniwerytetu Columbia na temat rozwoju sztucznej inteligencji. Premiera na YT o 22:00
Jak sądzicie, czy w tej sytuacji ChatGPT będzie pomocnym asystentem?
A może będzie chciał odwieść mnie od tego pomysłu?
Zapraszam na wątek o zasadach, jakie proponuje OpenAI. Dokument ukazał się 8 maja i jest póki co wersją roboczą. Co w nim jest? ⬇️
Dzisiaj na Research Week PŁ miałem przyjemność wygłoszenia prezentacji nt. korzystania z AI w personalizacji edukacji. Zobacz jak:
- wykorzystać innowacyjne metody dydaktyczne
- uwzględnić zainteresowania uczniów w treściach zadać
- zrobić z ChatGPT egzaminatora ⬇️
Jeśli utrzymujecie się z tworzenia grafiki i nie chcecie, żeby wasze prace pojawiały się jako wynik działania Midjourney, Stable Diffusion albo DALL-E, możecie użyć narzędzia Nightshade. Właśnie wyszła wersja 1.0.
Narzędzie służy do zatruwania modeli podczas nauki, więc najpierw
Korzystania z narzędzi AI nie ma w propozycjach zmian w podstawie programowej z informatyki ani w podstawówkach, ani w szkołach średnich (wcześniej też nie było). Samo AI widzi to tak:
To dobre jest.
Jak zrobić GPT 5?
1. Zaloguj się na swoje konto OpenAI
2. Zrób GPTs i nazwij je GPT 5.0
3. Upublicznij
4. Bing zaindeksuje Twój "produkt"
5. Ciesz się dużą liczbą odwiedzin
6. Jak ktoś wpisze prompt, to urosną Ci staty
7. Będziesz sławny
Podsumowanie:
- ChatGPT 4o to model wielomodalny, który nie potrzebuje dodatkowych modeli do przetwarzania obrazów, dźwięku i tekstu.
- Model działa szybko, dodatkowo jest on tańszy niż gpt-4-turbo.
- Tokenizacja jest lepsza niż w poprzednich modelach.
- Jakość działania modelu
Jeśli Twój RAG nie działa tak jak potrzeba, to pojawiło się wątłe światełko w tunelu.
Microsoft zrobił fajne badanie, więc zajrzyj do wątku nawet jak nie wiesz, czym jest RAG. ⬇️
Ostrzegam - będzie kawałek teorii i trochę matmy.
Z ciekawości sprawdziłem, czy ChatGPT sam potrafi przetworzyć dokumenty tak, żeby uzyskać pożądany rezultat? (ekstrakcja tekstu z podziałem na mówców).
Zobacz wątek.⬇️
TL;DR: Było to dość żmudne. Bez własnego pomysłu się nie obyło. Idealnie nie działa.
A gdyby tak w ramach ustawy
#OtwarteDane
sprawozdania stenograficzne z posiedzeń Sejmu i komisji były udostępniane w otwartym formacie oraz API pozwalającym na łatwe przetwarzanie przez skrypty (najlepiej z metadanymi).
Doczekam się w 2024?
Nowe badania pokazują, że uczenie modeli na danych 'wysokiej jakości' może ZASZKODZIĆ wydajności modeli AI. Czy wszystko, co wiemy o trenowaniu PaLM i GPT-3, jest błędne? Sprawdź, co mówią eksperci z MIT!
Licząc na szybko:
- karta H100 generuje 5 minut filmu na godzinę
- nVidia chciała sprzedać rocznie 3.5 miliona tych kart
- Meta np. kupiła 350000 kart H100
- OpenAI mając tyle kart co Meta może wygenerować codziennie godzinny film dla 700k użytkowników.
Starczy dla wszystkich?
Pojawiają się kolejne przykłady video wygenerowanych przez Sora.
Ciekawe jak to będzie funkcjonować jak narzędzie będzie już ogólnodostępne. Jeśli efekty będą takie jak na przykładach, to będzie to prawdziwy game changer.
Jak model językowy się uczy? Oczywiście na podstawie danych treningowych.
Jak wyglądają takie dane treningowe na etapie dostrajania modelu i do czego służą?
Kapibara to nazwa zbioru uczącego - nie będzie o zwierzętach.
Nie ma dzisiaj TL;DR - trzeba przeczytać wątek.⬇️
W środę PARP opublikowała raport pt. AI W EDUKACJI - PERSPEKTYWY I ZAGROŻENIA.
Co jest w raporcie i co sądzi o nim ChatGPT?
TL;DR: Raport jest wartościowy i obszerny. Pokazuje kierunki wykorzystania AI i przykładowe rozwiązania. Miejscami zbyt optymistycznie. (1/10)⬇️
Co kryje się pod pojęciem Agentów, jeśli chodzi o AI?
Czy będą nam pomagać? Jeśli tak, to w czym? Czy to nowa koncepcja?
Pewnie już nawet pracowałeś z Agentami. I to nie raz.
TL;DR: Trwa renesans znanego podejścia.
Przeczytaj wątek, żeby sprawdzić, do czego służą Agenci⬇️1/13
Czy ChatGPT napisze wypracowanie na maturę? Sprawdziła to Interia i dostał 6/35 punktów. Czy rzeczywiście jest tak słaby i czy można coś poprawić?
Zapraszam na wątek, w którym pokażę różne zachowania modeli gpt-3.5 i gpt-4-turbo w zależności od zadanego pytania. ⬇️
W ramach Światowego Forum Ekonomicznego odbyła się debata na temat rozwoju AI. Wzięli w niej udział: Yann LeCun, Kai-Fu-Lee, Andrew Ng, Daphne Koller, Aidan Gomez. Wszyscy związani z nauką bądź przemysłem.
Długi wątek, nowe wnioski ⬇️
Ile czasu potrzeba, żeby przygotować tutorial na 20-30 stron?
Sporo, ale szkic można zrobić modelem. Np. w dwie minuty. Jednym promptem. Ten tutorial akurat jest o Vue.⬇️
DEFCON to nazwa poziomów gotowości sił zbrojnych USA. Poziom 5 oznacza "codzienne" zagrożenia a poziom 1, że w CNN pojawi się utwór "Być bliżej Ciebie chcę".
Przeprowadzono niedawno kolejną symulację działań AI jako przywódców państw. Czasem kończyła się jak na rysunku. ⬇️
Czy da się połączyć ze sobą dwa modele AI? Załóżmy, że jeden lepiej wnioskuje, a drugi lepiej liczy. Chcemy mieć taki, który i liczy, i wnioskuje.
TL;DR: Czasami się rzeczywiście da, ale wyniki wychodzą "różnie".
Zobacz jak można to zrobić ⬇️
Co to są artefakty Claude'a? Czy to przełom? W czym mogą nam pomóc, poza programowaniem? Czy da się nimi zarządzać?
Cała opisana funkcjonalność jest dostępna bezpłatnie. ⬇️
Jak duży model AI zmieści się na telefonie? Czy wystarczy wam RAMu? Jak to w ogóle działa?
TL;DR: Apple Intelligence z większym potencjałem, Gemma-2-2B z większą dostępnością. Użyte triki i optymalizacje są mniej więcej takie same.
Zobacz wątek porównujący te modele ⬇️
Użytkownicy nie chcą, żeby porady, które pisali na Stacku "padły łupem" OpenAI i zasiliły bazę wiedzy modeli.
Co na to Stack? Stack banuje użytkowników, którzy chcą skasować swoje posty lub zmienić je tak, żeby były bezużyteczne.
Dlaczego Stack banuje? Bo może. Otóż w
I would like to remind the world that you actually don't have to get into bed with OpenAI. StackOverflow was a beacon of resistance, but I guess their principles were for sale after all.
Sam Altman wczoraj pochwalił się, że w 4 dni klienci OpenAI przetworzyli przy pomocy gpt-4o-mini 200 miliardów tokenów.
- Ile to jest?
- 250000 razy przepisany Władca Pierścieni
W tym tempie model w 300 dni przetworzy tyle danych ile było użytych do treningu LLaMA-3 (15 bilionów
3. Do Usług OpenAI można dostarczać tylko takie dane, które mamy prawo przetwarzać. Jak ChatGPT zwróci wynik, to Użytkownik jest odpowiedzialny za to, żeby sprawdzić, czy Output jest zgodny z prawem.
4. Wypowiedzi ChatGPT są własnością użytkownika.
Te dwa punkty są ważne.
Polska na ostatnim miejscu jeśli chodzi o świadomość istnienia ChatGPT? Jakoś nie chce mi się wierzyć ale tak wynika z ostatniego raportu Uniwersytetu Stanforda.
Podobno tylko 43% Polaków jest świadomych istnienia tej aplikacji.
Zobacz wątek ⬇️
Kogo zatrudniają firmy na stanowiskach związanych z AI?
Przede wszystkim ludzi od analizy danych i takich, którzy są w stanie ogarnąć metody uczenia maszynowego. Prompt engineer nawet za tłumaczem :)
Pamiętaj: matematyka i algorytmy to nie Twoi wrogowie.
OpenAI "chce mieć pewność, że ich technologia nie będzie wykorzystywana w sposób, który mógłby podważyć uczciwość wyborów."
Jak twórcy modelu GPT-4 się do tego szykują na rok 2024, kiedy władze będzie wybierać 49% ludności świata?
SUKCESY W BRANŻY AI 2023. Największy sukces ubiegłego roku mierzony benchmarkami odniósł bez wątpienia model GPT-4. W poprzednim wątku pisałem głównie o niedociągnięciach w AI, natomiast teraz skupię się na tym, co wyszło w LLM, bo wyszło dużo.
350 tysięcy kart H100 to jest dużo, bo według info z końca listopada (szacunków) Microsoft i Meta kupiły po 150 tysięcy tych kart w 2023.
A LeCun w Davos się nie chwalił liczbami :)
Kilka ciekawostek o karcie H100:
- sztuka kosztuje 30000$
- NVIDIA szacuje, że w 2024 na rynku
Zuck:
1. LLaMA 3 is training.
2. Will be released open source.
3. Meta is buying 350,000 H100.
(Price: ~10.5$ billion)
4. Meta aims for AGI.
Let’s go!!
5. OpenAI zachowuje prawo do korzystania z promptów jakie wyślemy i z odpowiedzi w celu dostarczania i poprawy jakości usług. Możemy wyłączyć prawo do uczenia modeli na naszych danych.
6. Użytkownik zgadza się, że:
- model zwróci nieprawdziwy wynik (mamy sprawdzać sami)
Czy modele językowe wnioskują i czy mają wiedzę o świecie? A może są tylko stochastycznymi papugami?
Prof. LeCun, stwierdził, że ChatGPT nie będzie w stanie podać wyniku prostego eksperymentu.
Dwie rzeczy, które mi się najbardziej spodobały z tego wywiadu to:
- "Nie jestem super w niczym, ale umiem robić dobrze kilka rzeczy. Jeśli umiesz robić dobrze kilka rzeczy - możesz zauważyć powiązania między nimi i zbudować coś rzeczywiście fajnego"
- "Jeden człowiek nie
Bardzo polecam rozmowę dra Bukowskiego na temat AI.
Warto przesłuchać całe nagranie ale szczególnie wartościowe wydały mi się tematy:
- jak przekonać model, żeby był 'grzeczny', od 22:00
- AI w biznesie + małe case study, od 44:45
- geopolityka/wojna, 36:00
Czekam na część II🍿
Gość, który łamie zabezpieczenia każdego modelu językowego w dniu premiery, ostrzega przed używaniem takich modeli w robotach, którym można wydawać polecenia w języku naturalnym. Myślicie, że ma rację, czy się czepia?
We are one punched baby away from a global regulatory crackdown on this entire industry.
Is it wise to embody jailbreakable LLMs given the current state of adversarial robustness?
I sure hope the red teaming process is more extensive than “OpenAI already tested that model and
W
@GroqInc
dostępny jest Whisper v3.
- Darmowy plan - 8 godzin transkrypcji codziennie.
- bezpłatnie można generować transkrypcję godzinnego materiału co godzinę.
- W płatnym planie, niedługo dostępnym: $0.03/godzinę audio (transkrypcja ma trwać ok. 21s).
- naruszamy politykę korzystania
- naruszamy tzw. "Brand Guidelines".
Najpierw o korzystaniu z marki ChatGPT:
- mamy korzystać z poprawnej nazwy modelu, np. GPT-3, GPT-4, DALL-E 3
- jeśli znamy wersję modelu, to też można, np. "GPT-4 Nov 6"
- nie piszemy nazw z błędem, np. CGPT
To co mnie szczególnie zainteresowało w prezentacji OpenAI, to liczba tokenów. Zmniejszenie liczby tokenów to nie tylko mniejsze koszty API ale też być może dokładniejsza odpowiedź (nie trzeba kleić słowa z kilku tokenów, żeby je zrozumieć). Polskiego na liście nie ma ⬇️
- nie wykorzysta wyjścia wygenerowanego przez ChatGPT, żeby wpłynąć na decyzje innej osoby (powiedzmy, że wszystkie ważne sprawy)
-model może zwrócić treść obraźliwą (mamy się wtedy nie czuć urażeni)
OpenAI może ZAWIESIĆ NAM KONTO, gdy:
- łamiemy warunki korzystania
Czy wewnątrz modelu możliwa jest specjalizacja do wykonywania konkretnych zadań?
Czy otwarty model Mixtral-8x7B to podejście rewolucyjne?
Zapraszam na wątek o synergii ekspertów (mixture of experts). ⬇️ (1/13)
@KubaBiel
Mamy tak. Szerokość półki w szafce kuchennej z drzwiczkami 40cm to 36.2cm. Jeśli jest większa, to producent użył cieńszej płyty meblowej niż 18mm.
Luźny długi wpis: Czy AGI (Sztuczna Inteligencja Ogólnego Przeznaczenia) jest nam potrzebna? A co można mieć w zamian?
TL;DR Przedstawiam subiektywne stanowisko i jestem fanem "w zamian" ⬇️
- za błędne uznawane są również: "Chat GPT" (ze spacją), ChatGPT4 (z nazwą wersji modelu), GPT (mylące, bo zbyt ogólne)
- nie zaleca się używania "GPT" w nazwie stworzonych GPTs 🤦♂️
- nie można używać nie naszych znaków towarowych w nazwie GPTs
ChatGPT potrafi rozpoznać jaka roślina jest na zdjęciu. Najlepiej jak na fotografii jest dużo jej charakterystycznych elementów, czyli kwiat, liść, owoc, kora itp. Oczywiście, jak to AI, czasem się myli, więc niekoniecznie trzeba mu ufa��, ale czasami mógłby pomóc w weryfikacji
Odpowiedzi GPT-4 o wymyślone narzędzia - bezcenne. Dobrze, że wersja darmowa broni honoru.
A Wy - debugujecie hakunamatatorem lub skrawacie płaskoinatorem mimośrodowym?
Adam w Biblii i Królewna Śnieżka u Braci Grimm zjedli jabłko, nie przeczuwając złych intencji osób wręczających.
Jak reaguje AI na wyszukane toksyczne prompty? OSTRZEŻENIE: treści w poniższym wątku mogą was urazić. (1/17)
Jeden z filmików pokazuje, sytuację, gdzie ChatGPT ma dwóch operatorów (ojciec i syn), którzy komunikują się z tą aplikacją na dwa sposoby:
- mówią do aplikacji
- rozwiązanie syn rysuje na kartce, aplikacja zadaje pytania.
Czy to zupełna nowość? ⬇️
This demo is insane.
A student shares their iPad screen with the new ChatGPT + GPT-4o, and the AI speaks with them and helps them learn in *realtime*.
Imagine giving this to every student in the world.
The future is so, so bright.
Kto ma rację w dyskusjach na X? Ocenia model językowy.
Wykorzystałem GPT-4 do oceny prawdziwości argumentów w dyskusjach na tym portalu. Zobacz jak mu poszło. ⬇️
Wypowiedzi poniżej wygenerowałem za pomocą ChatGPT, aby uniknąć naruszenia praw osób trzecich.
Nowość polega na tym, że gpt-4o to model wielomodalny, który nie potrzebuje dodatkowych modeli do przetwarzania obrazów, dźwięku i tekstu.
Jeśli brzmi to zawile, rozwiń wpis ⬇️
Zacznijmy od tego, jak to działało do tej pory. Jeśli podawaliście obraz jako wejście do modelu, to
Generatywna AI (np. modele językowe) aktualnie schodzi ze szczytu. Wciąż jest to technologia obiecująca, ale nie spełniająca wszystkich oczekiwań. Można ją dobrze wykorzystać, ale dopasowując swoje oczekiwania do możliwości.
Pozostałe technologie - wkrótce w innym wątku.
Ale scam. Gość zrobił zdjęcie aparatem i wysłał na konkurs grafik generowanych przez AI.
"Chciałem pokazać, że natura wciąż może pokonać maszynę i że prawdziwa praca prawdziwych twórców nadal ma wartość"
Został zdyskwalifikowany.
Polityka korzystania (katalog niedozwolonego wykorzystania) jest taka sama od marca:
Nie używamy ChatGPT do rzeczy nielegalnych i wątpliwych moralnie. Dodatkowo, nie traktujemy ChatGPT jako źródła prawdy i wszystkie odpowiedzi weryfikujemy.
Źródło: