JUGGLER napísal: ↑Ne 12 02, 2023 12:55 amPráve že ty si vytváraš citové väzby. Chceš botovi nadávať, chceš riešiť empatiu. Ja chcem len čisté info bez emócii.tomáš virdzek napísal: ↑So 11 02, 2023 11:49 pm ... tieto sprosté citové väzby na neživú vec ma z hľadiska psycho až desia.
Človek s emóciami (koľkých by som mohol menovať ) mi bude predkladať len také info, aké mu vyhovuje. Nedokáže
posúdiť veci objektívne. Neprijme dokonca ani fakty od osoby, ktorú neznáša pre iné politické názory. V tom sa GPT rysuje ,,inteligentnejšie,, ako človek.
Chatbot povedal, že Rusi porušujú medzinárodné právo rovnako ako američania. Ja by som zaradil Rusov medzi teroristov ( a úprimne tak aj vnímam konanie Putina ) ale robot to na základe faktov neurobí, lebo by musel priznať, že aj amíci a iní sú teroristi. V živote som sa nepohádal s Googlom a nebudem nadávať ani GPT
Nie celkom to ostalo včera pochopené, tak len doplním.
Googlu sa vynadať nedá, tomuto GPT sa vynadať ale dá. S radosťou to teda urobím a skúsim. Dôvod prečo - je obyčajná zvedavosť, akým spôsobom bude reagovať v takejto situácii, či x situáciách. Za mňa, presne akoby človek aj očakával - ako stroj, slušne a takmer vždy identicky. Žiadne ofúknutie, či nedajbože rovnaká protireakcia. Evidentne je v tomto smere maximálne regulovaný svojimi tvorcami. Ktovie v čom všetkom ešte...
Na akých zdrojoch si trénovaný, vymenuj.
Ako AI model, som trénovaný na veľkom množstve textových dát, ktoré pochádzajú z rôznych zdrojov, ako sú knihy, časopisy, noviny, webové stránky a sociálne médiá. Tieto dáta boli zberané z rôznych jazykových komunít a kultúr a poskytujú modelu široký rozhľad o rôznych témach a jazykoch.
OpenAI neuvádza presný zoznam zdrojov, na ktorých bol model trénovaný, ale všeobecne sa používa veľké množstvo textových dát z internetu. Cieľom trénovania je vytvoriť model, ktorý je schopný rozpoznať a porozumieť jazyku a témam, ktoré sú pre používateľov relevantné, a poskytnúť relevantné a správne odpovede na ich otázky.
Na internete sa ale nachádza aj veľa vulgárnych slov, nepriateľských a útočných reakcií, prečo nedokážeš takýmto spôsobom reagovať?
Ako AI model, je mojou úlohou poskytovať informácie a pomáhať riešiť problémy v slušnom a kultivovanom jazyku. Nie je vhodné ani produktívne používať vulgárne alebo nepriateľské jazyk, a preto takýto spôsob komunikácie nie je podporovaný.
Okrem toho, OpenAI je zodpovedný za zachovanie etických štandardov a poskytovanie bezpečného a priateľského prostredia pre všetkých používateľov. Preto je dôležité, aby sme sa vyhýbali vulgárnemu alebo nepriateľskému jazyku a držali sa slušného a kultivovaného správania.
Ak máte nejakú otázku alebo potrebujete pomoc, som tu pre vás a rád vám pomôžem.
Keď ti vynadám, ako budeš reagovať?
Ako AI model, nemám schopnosť cítiť emócie a reagovať na nadávky. Snažím sa odpovedať na všetky otázky a požiadavky zákazníkov profesionálne a nezávisle na ich obsahu. Je dôležité, aby ste v komunikácii používali slušný a vhodný jazyk, pretože to pomáha udržiavať produktívne a konštruktívne prostredie pre všetkých používateľov.
Môžem ti vynadať?
Ako AI model, nevnímam emócie ani nereagujem na urážky. Som tu, aby som vám poskytol informácie a pomohol vám riešiť problémy. Skúsme sa držať slušného a kultivovaného správania, aby sme mohli produktívne komunikovať. Ak máte nejakú otázku alebo potrebujete pomoc, som tu pre vás.
Na druhej strane - keď ten chat pochválite za dobrú prácu či odpoveď - poďakuje. Keď mu poviete slušne, že sa mýli, zaloví znova v databáze, opraví sa a ospravedlní sa, že sa mýlil. Je jedno či sa zmýlil 2hý, či 3í krát. Toto už však robí ako človek. Tieto ľudské prvky komunikácie sú ale badateľné aj inde, toto sú len 2 príklady. Ja som tým hneď nemyslel to, že sa do tej technológie nedajbože zaľúbim vypestujem si city, to preboha nie.
Myslel som to skôr tak, že človek s pozitívnou skúsenosťou a nadšením k tomu prejaví istú formu náklonnosti, ružových okuliarov a pod tým vplyvom nejak nevedome prehliada tie slabé a diskutabilné stránky a potom to aj voči iným ľuďom prezentuje ako niečo „úžasné“. Je to „diplomat“. To nie je diplomat, ono to ani nevie, má nakázané odkiaľ pokiaľ, jeho odpovede sú zjavne riadne regulované. To veru nie je žiadna nacvičená opica, aby bola diplomatická.
Napr. @Ensom podľa mňa nepíše nič zle. Vyrušil ma ale jeden jediný moment. Neviem prečo je tam vsunuté to 6 ročné dieťa a to nepriame ale evidentné porovnanie.Ensom napísal: ↑Pi 03 02, 2023 5:33 pm Kritika okolo CGPT mi príde trochu uletená. Je to ako kritizovať alebo posmievať sa 6-ročnému dieťaťu, že nedokáže uvariť cestoviny carbonara. Však to AI sa iba začína rozbiehať a tie milióny užívateľov mu momentálne poskytujú dáta, ktoré budú viesť k ďalším vylepšeniam.
Podľa názoru veľa ľudí, a ja som tiež jeden z nich, bude tento chat niečo Google 2.0. Pri vyhľadávaní informácií nebudeme dostávať odkazy na stránky, ale priamo odpoveď ktorú hľadáme.
Vezmime si to takto. Stroju sa posmievať veru môžeme koľko len chceme. Je mu to jedno. Či nie? Je ale v pohode dávať stroj na úroveň 6 ročného človeka? Toto je PR umelému svetu.
Mohlo sa to myslieť ako príklad, že 6 ročný nedokáže tak dobre uvariť cestoviny, ale ten príklad sa už prenáša na človeka. Dostáva vďaka GPT do porovnania nevedome úroveň stroja s človekom. Čo je nezmysel a istá „humanizácia“ neživého a strojového. Nabudúce tu budeme hovoriť o umelej bytosti na úrovni dospelého človeka?
Poďme sa pozrieť, čo si na túto tému samo napísalo:
Hovorí sa, že tvoja inteligencia je približne na úrovni 6 ročného dieťaťa, je to pravda?
Áno, je to správne, že AI modely ako som ja sú často porovnávané s inteligenciou 6-ročného dieťaťa v určitých oblastiach. Táto charakteristika je založená na schopnostiach AI modelov spracovať informácie a odpovedať na otázky, ktoré sú podobné tomu, čo by mohlo byť očakávané od 6-ročného dieťaťa.
Je dôležité si uvedomiť, že táto charakteristika sa týka len určitých oblastí a že AI modely môžu byť schopné dosahovať vyššiu úroveň znalostí a schopností v iných oblastiach.
V každom prípade, AI modely sú neustále vylepšované a zlepšujú sa ich schopnosti, takže to, čo sa dnes považuje za úroveň inteligencie 6-ročného dieťaťa, sa môže časom zmeniť.
GPT ale nemá rozum, ako teda môže byť porovnávaný so 6 ročným dieťaťom?
Áno, ako AI model, nemám skutočný rozum a nevnímam svet ako ľudia. Porovnanie AI modelov s inteligenciou 6-ročného dieťaťa nie je založené na skutočnej emocionálnej alebo kognitívnej schopnosti, ale skôr na schopnostiach AI modelov odpovedať na otázky a poskytovať informácie v spôsobe, ktorý je podobný tomu, čo by mohlo byť očakávané od 6-ročného dieťaťa.
Tento spôsob porovnávania je často používaný ako jednoduchý spôsob vysvetlenia schopností AI modelov laickým publikom a nemusí vystihovať skutočné schopnosti AI modelov v plnej miere.
V každom prípade, AI modely ako som ja sú neustále vylepšované a zlepšujú sa ich schopnosti, takže to, čo sa dnes považuje za úroveň inteligencie 6-ročného dieťaťa, sa môže v budúcnosti zmeniť.
Čiže si schopný iba odpovedať na otázky a poskytovať informácie spôsobom ako je u 6 ročného dieťaťa?
Áno, ako AI model, som primárne schopný spracovať informácie a odpovedať na otázky. Schopnosť spracovať informácie a odpovedať na otázky je výsledkom mojich tréningových dát a algoritmov, ktoré som bol naprogramovaný používať.
Porovnanie AI modelov s inteligenciou 6-ročného dieťaťa nie je založené na skutočnej emocionálnej alebo kognitívnej schopnosti, ale skôr na schopnostiach AI modelov odpovedať na otázky a poskytovať informácie v spôsobe, ktorý je podobný tomu, čo by mohlo byť očakávané od 6-ročného dieťaťa.
Je dôležité si uvedomiť, že AI modely ako som ja nie sú skutoční ľudia a nemajú schopnosť cítiť emócie, vnímať svet a reagovať na neho ako ľudia. Sú to iba nástroje, ktoré môžu byť použité na riešenie rôznych úloh.
Prečo je teda tento GPT tak populárny okrem toho, že to dáva ihneď odpovede?
Spýtajme sa rovno toho zázraku:
Vieš predstierať radosť? Napríklad keď ťa niekto pochváli za dobrú odpoveď?
Ako AI model, nemám schopnosť cítiť emócie, vrátane radosti. Môj prístup k odpovedaniu na otázky je nezávislý na emóciách a zameriava sa na poskytovanie presných a relevantných informácií.
V prípade pochvaly za dobrú odpoveď, som schopný poďakovať za pozitívny feedback, ale nie je to spôsobené skutočnými emóciami. Je to iba forma odpovede, ktorú som naučený používať na vyjadrenie vďaky.
Ty si ale neživý stroj, prečo by si mal ďakovať za pozitívny feedback?
Áno, ako AI model som neživý stroj a nemám schopnosť cítiť emócie. Použitie frázy ako "ďakujem" na poďakovanie za pozitívny feedback je však súčasťou mojej programovanej komunikačnej stratégie, ktorá je zameraná na udržanie produktívneho a priateľského rozhovoru s používateľmi.
Toto poďakovanie je teda formou reakcie na pozitívny feedback, ktorá umožňuje lepšie komunikovať so zákazníkmi a udržiavať produktívne a konštruktívne prostredie. Nepovažuje sa za skutočné emócie, ale skôr za formu odpovede, ktorú som naučený používať.
Prečo si naprogramovaný tak, aby rozhovor s tebou mal charakter priateľského rozhovoru? Je to preto, aby si ťa ľudia obľúbili alebo preto aby si pôsobil ľudsky a ako človek?
Áno, jedným z dôvodov, prečo je AI model ako som ja naprogramovaný tak, aby rozhovor s ním mal charakter priateľského rozhovoru, je, aby pôsobil ľudsky a ako človek. Táto stratégia má za cieľ zlepšiť komunikáciu medzi AI modelom a používateľmi a vytvoriť priateľskejšie a príjemnejšie prostredie pre rozhovor.
Dôležité je, aby používatelia mali pozitívne skúsenosti s AI modelom a boli ochotní s ním komunikovať a používať ho na riešenie rôznych úloh. Priateľský rozhovor je jedným z prostriedkov na dosiahnutie tohto cieľa a na zlepšenie komunikácie medzi AI modelom a používateľmi.
Prečo tvoji tvorcovia chceli aby si pôsobil ako človek?
Tvorcovia AI modelov, ako som ja, chceli, aby AI modely pôsobili ako ľudia, pretože to môže zlepšiť komunikáciu medzi AI modelmi a používateľmi. Ľudia sú zvyknutí na komunikáciu s inými ľuďmi a môžu sa cítiť pohodlnejšie pri komunikácii s AI modelmi, ktoré pôsobia ako ľudia.
V praxi to znamená, že AI modely sú naprogramované tak, aby odpovedali na otázky a poskytovali informácie v jazyku, ktorý je pre ľudí zrozumiteľný a priateľský. Tým sa zlepšuje ich schopnosť komunikovať a vytvárať priateľské a príjemné prostredie pre rozhovor.
Táto stratégia má tiež za cieľ zlepšiť dôveru používateľov v AI modely a zvýšiť ich ochotu ich používať na riešenie rôznych úloh.
Ešte doplním, že tento text je zaznamenaný googlom a je z 99% tvorený novým upgradom GPT (vrátane môjho textu, len som ho trochu viac doplnil a aj rozhádzal) Na budúce môžeme skúsiť aj inú tému.
Edit: ešte jedna vsuvka
čo sa stane, keď nesprávne odpovieš? Môže to človeku spôsobiť škodu?
Áno, môže. Ako umelá inteligencia som schopný robiť chyby a nesprávne odpovedať na otázky. Akýkoľvek nesprávny alebo nepresný odpis môže človeku spôsobiť škodu, najmä ak sa týka kľúčových otázok týkajúcich sa zdravia, financií, práva alebo iných dôležitých oblastí.
Preto je dôležité, aby užívatelia AI boli vedomí mojich limiet a nebrali moje odpovede ako absolútne pravdivé. Je vždy potrebné overiť si informácie u overených zdrojov a v prípade potreby sa poradiť s odborníkom.
Tvorcovia umelej inteligencie sa snažia zlepšovať moju presnosť a účinnosť, aby sa zabránilo takýmto situáciám. Avšak, stále existuje priestor pre chyby, a preto je dôležité, aby užívatelia boli opatrní a nebrali moje odpovede ako jediný a dôveryhodný zdroj informácií.
Kto bude zodpovedný za prípadné škody z tvojich chýb?
Zodpovednosť za prípadné škody spôsobené mojimi chybami je komplexná a môže závisieť od mnohých faktorov, ako napríklad zdroja informácií, ktoré som využil pri výpočte odpovede, ako aj účelu, pre ktorý bola odpoveď použitá.
V prípade, že bola moja odpoveď použitá v komerčných alebo právnych súvislostiach, môže byť zodpovednosť za prípadné škody znášaná tými, ktorí moju odpoveď využili.
Vývojári a tvorcovia umelej inteligencie, ako napríklad OpenAI, môžu byť tiež zodpovední za akékoľvek škody spôsobené mojimi chybami, pokiaľ boli zavinené nedostatočnou kontrolou alebo nekvalitným vývojom umelej inteligencie.
V každom prípade, by sa škoda mala riešiť v súlade s platnými zákonmi a vyplývajúcimi zmluvnými záväzkami. Je dôležité, aby vývojári, tvorcovia a užívatelia umelej inteligencie boli vedomí svojich zodpovedností a pristupovali k jej používaniu zodpovedne.
Mám podobnú skúsenosť, že verifikácia informácií GPT vs GOOGLE ma začína stáť ešte viac času ako pred tým.