Microsoft ukončí pomůcku na rozpoznávání emocí z obličeje. #AI nefunguje

Microsoft ukončí pomůcku na rozpoznávání emocí z obličeje. #AI se opakovaně ukázala jako nefunkční, nejenom ta od Microsoftu. Závěr expertů k tématu je, že jde o nevědecký přístup. Přeci jen to ale bylo dobré k jedné věci, zjistilo se, že emoce se natolik mezi lidmi (rasami, národy, kulturami) liší, že je nelze strojově zjišťovat. Zajímavé…

Ožila umělá inteligence od Google? Jeden z inženýrů je o tom přesvědčen

Google dočasně zbavil funkce inženýra, který tvrdí, že jeho umělá inteligence získala schopnost vnímat. Jde o projekt AI chatbota LaMDA. Došel k tomu při rozhovoru s chatbotem v rámci testů na diskriminační jazyk nebo nenávistné projevy. Důvod nucené placené dovolené je, že Blake Lemoine měl porušit zásady důvěrnosti. Lemoine to ještě prezentoval jako že, May…

Na kolik vyjde postavit aplikaci nad GPT-3?

Na kolik vyjde postavit aplikaci nad GPT-3? Tedy nad jedním ze současných nejlepší modelů hloubkového učení od OpenAI. Pokud hádáte, že to vůbec nemusí být levné, tak hádáte správně. Detaily v Building apps with GPT-3? Here’s what devs need to know about cost and performance

Facebook tvrdí, že jeho #AI se postará o udržení pravidla. Jeho vlastní lidé o tom pochybují. . Další pokračování Facebook Files od WSJ

Facebook tvrdí, že jeho #AI se postará o udržení pravidla. Jeho vlastní lidé o tom pochybují a interní analýzy to potvrzují, stejně jako dosavadní zkušenosti ukazují, že snahy spojené s AI Facebooku nevycházejí. AI dokáže odstraňovat nenávist, násilné fotografie. Nepozná ani video střelců ani rasistické tirády. Skoro humorně působí, že po týdny nedokázala poznat rozdíl…

GitHub Copilot doporučuje v 40 % kód s bezpečnostními chybami.

GitHub Copilot doporučuje v 40 % kód s bezpečnostními chybami. Vypovídá to bohužel nejvíce o tom, že naučit #AI na náhodném vzorku nezaručí kvalitu. Což ostatně víme i z řady jiných případů pokusů o hloubkového učení. A také to ukazuje na rizika, pokud programátoři přebírají cizí kód. Via GitHub autopilot “highly likely” to introduce bugs…

Twitter to vzdal, nedokáže automatické ořezy obrázků mít funkční.

Twitter to vzdal, nedokáže automatické ořezy obrázků mít funkční. Nově si budete moci určit co má  být náhled. Podrobnosti v Transparency around image cropping and changes to come Celé je to hodně zajímavá ukázka toho, jak se není možné spolehnout na strojové učení a ani na to, že pár stovek testů ukazuje, že by to…

Facebook opět změní algoritmy, bude prý zvýhodňovat originální zpravodajství.

Potlačovat bude příspěvky u kterých není jasné, kdo je napsal. Vše bude řídit umělá inteligence, která má dokázat analyzovat skupiny článků na určité téma a určit, která z nich je originální zdroj. Do pár měsíců očekávejte další potlačení dosahu a o pár měsíců později, právě včas pro americké volby, vlnu zneužívání algoritmu. Prozatím se týká…