Future Conf 2023
25 Września 2023, 08:30 (Poniedziałek) - 26 Września 2023, 23:00 (Wtorek)
Zapraszamy na dwudniową konferencję poświęconą sztucznej inteligencji i jej zastosowaniom w programowaniu! Będzie to wyjątkowe wydarzenie, które pozwoli Ci na poznanie najnowszych narzędzi i technologii, dzięki którym możesz programować szybciej i bardziej niezawodnie.
Podczas pierwszego dnia konferencji poznasz nowoczesne technologie webowe, które pomagają w szybkim tworzeniu aplikacji oraz w budowaniu stabilnych systemów. Drugi dzień to szansa na zgłębienie szerszej tematyki związanej z programowaniem i sztuczną inteligencją.
Nasi eksperci przedstawią Ci najnowsze trendy w dziedzinie sztucznej inteligencji oraz omówią, jakie narzędzia i technologie pomogą Ci w codziennej pracy. Będziesz miał również okazję porozmawiać z innymi specjalistami z branży i nawiązać cenne kontakty.
Przyjdź i zdobądź nową wiedzę, która pozwoli Ci na jeszcze skuteczniejszą pracę. To wydarzenie to doskonała okazja, by poznać specjalistów z branży sztucznej inteligencji, nawiązać nowe kontakty i zainspirować się do jeszcze lepszej pracy.
Konferencja odbędzie się na koniec września, a liczba miejsc jest ograniczona. Nie przegap okazji i zarejestruj się już dziś!
✨ AGENDA ✨
Tomasz Borowicz - RSC, Component Islands i Resumability - 3 paradygmaty, które na zawsze zmienią tworzenie stron internetowych
Przeszliśmy długą drogę od prostych, statycznych stron HTML do nowoczesnych, złożonych aplikacji internetowych. W tej chwili wkraczamy w kolejną erę tworzenia stron internetowych, która po raz kolejny zmieni status quo. Resumability, Component Islands i React Server Component to 3 paradygmaty, które ukształtują przyszłość aplikacji JavaScript. Wspólnie przyjrzymy się naszej podróży do tego miejsca i spróbujemy zrozumieć, jak będzie wyglądać kolejna era.
Riccardo Odone - TypeFirst TypeScript
Przychodząc z języków skryptowych lub języków z niechlujnymi systemami typów, nauczyliśmy się najpierw pisać kod, a później dodawać typy statyczne. Nie chcesz popełniać tego samego błędu w TypeScript. Takie podejście, w najlepszym wypadku, tylko Cię spowalnia. W najgorszym przypadku tworzy złą architekturę (i wiele błędów 😨). Statyczne type są irytująco dobre w ujawnianiu złych decyzji projektowych. Jeśli kiedykolwiek znalazłeś się w nieskończonej pętli refaktoryzacji, wiesz, że nie możesz zrefaktoryzować się ze złego projektu. Pozwól więc, że pokażę ci, jak możesz używać typów statycznych jako narzędzia do projektowania, a nie jako narzędzia do refaktoryzacji.
Szymon Rybczak - Server Components dla React Native?!
React Server Components to gorący temat w community Reacta. Wiele frameworków je implementuje, wielu developerów wykorzystuje je jako sposób na przyspieszenie renderowania applikacji. Co by było, gdybyśmy byli w stanie używać React Server Components w świecie Native? Wprowadzić wszystkie funkcje optymalizacyjne, które RSC umożliwia nam do aplikacji mobilnych? W tej prelekcji dowiecie się co możemy dziś zrobić z RSC w React Native!
Michał Pierzchała - Niewidzialny Projektant
Jako twórcy aplikacji, twórcy, architekci oprogramowania i projektanci jesteśmy przyzwyczajeni do kształtowania rzeczy tak, jak nam się podoba. Naginania kodu do naszej rzeczywistości. Często wierzymy, że mamy pełną kontrolę nad naszym stworzeniem. Ale rzeczywistość jest znacznie bardziej złożona. Rzeczywistość oznacza rozmowę z innymi ludźmi, komunikowanie potrzeb i pomysłów. Pokażę Ci, jak ta komunikacja kształtuje i projektuje Twoje produkty i kod. Jak React wpisuje się w ten obraz i jak wykorzystać prawo Conwaya na swoją korzyść.
Hubert Zub - JS jak JavaScript, O jak Observability
Jeśli twoja aplikacja webowa jest w 100% wolna od błędów, działa zawsze perfekcyjnie szybko i bez użycia żadnych metryk wiesz jak korzystają z niej użytkownicy - wówczas prawdopodobnie możesz zignorować ten temat. Jeśli jednak dopuszczasz że może być inaczej, zajrzyj na tę prezentację i sprawdź dlaczego warto (i jak) wiedzieć nieco więcej o swojej aplikacji w momencie gdy dzielnie walczy z userami na produkcji. W planie: pułapki, narzędzia, praktyczne porady dla małych i wielkich projektów. Postaram się, byś wyniósł/wyniosła stąd garść wiedzy a także checklistę, do której będzie mozna przystawić swoją aplikację.
Kacper Kapuściak - Jak znasz React, znasz też Native
Ucząc się Reacta, odkryłeś więcej możliwości, niż mogłeś się spodziewać. Chciałbym Ci pokazać, jak wiedza, którą zgromadziłeś przez lata, przekłada się na mobilny świat React Native. Podczas prelekcji przedstawię Ci podstawowe koncepty stojące za React Native oraz nauczysz się jak zacząć tworzyć aplikacje przy pomocy Expo.
Andrzej Fricze - Przyszłość jest dziś - rozwiązanie problemów zarządzania stanem i projektowania aplikacji
Przy budowaniu aplikacji UI ważne są 3 elementy: 1) Sprawna obsługa asynchronicznych eventów. 2) Walidacja danych, które wchodzą i wychodzą z aplikacji. 3) Wyświetlanie aktualnych danych. Możesz męczyć się i budować skomplikowane architektury, w imię zgodności z SOLID. Możesz twierdzić, że na końcu wszystko i tak jest imperatywne, więc nie ma co się męczyć z abstrakcją. Możesz też dorosnąć, wybrać nowoczesna narzędzia, które realizują Twoje cele i zabrać się do roboty. Jeśli wybierasz opcję trzecią, pokażę Ci jakich narzędzi używać i jak, opierając się na prostych, logicznych pytaniach budować sensowną architekturę aplikacji. Jeśli boisz się wyrzucać stare nawyki do kosza - lepiej nie przychodź.
Ivan Akulov - React Concurrency, Explained
React 18! Concurrent rendering! Pewnie wypróbowałeś, lub słyszałeś już o nowych API, takich jak useTransition/startTransition. Ale czy wiesz, w jaki sposób React 18 osiąga świetną wydajność, używając wbudowanych mechanizmów? W tym wystąpieniu zajrzyjmy pod maskę wydajności React 18: - Jak React 18 skraca czas zamrożenia strony (inaczej TBT) - Co dokładnie dzieje się w głównym wątku, gdy uruchamiasz useTransition() - Jaki jest haczyk z ulepszeniami (nie ma nic za darmo!) i dlaczego Vue.js i Preact wprost odmówiły zaimplementowania czegoś podobnego
Bartosz Pampuch - Zwiększ swoją produktywność - skorzystaj z gotowych modeli
Coraz więcej modeli jest gotowych, trzeba tylko wiedzieć skąd je wziąć, jak wykorzystać i ewentualnie - jak minimalnym nakładem pracy rozszerzyć (robiąc fine-tuning pod konkretny taski). W czasie tej prelekcji Bartosz opowie nam jak wykorzystać istniejące narzędzia.
Piotr Cieluchowski - Co programista powinien wiedzieć o Large Language Models
Solidne fundamenty to klucz do sukcesu. W świecie LLM pojawia się coś nowego każdego dnia. Na naszym spotkaniu przejdziemy przez modele LLM, ich parametry, możliwości i ograniczenia. Czy więcej tokenów zawsze oznacza lepsze wyniki? Dlaczego jakość odpowiedzi spada? Czy da się wyjść poza narzucone ramy? Zapraszam Cię na szybki update wiedzy. Bez względu na Twoje doświadczenie z AI, będzie to wartościowe spotkanie.
Jarosław Michalik - MentorGPT czyli kto to więcej wniesie do projektu - junior z generative AI czy senior z doświadczeniem?
Prawdziwi programiści nie używają ChatGPT. W końcu to oszukiwanie. Za to nowoczesny junior wspierający się AI i lowcode szybko przegoni zgrzybiałego seniora który od 15 lat pisze takie same kontrolery w Springu. Podczas prezentacji przedstawię konkretne case study, ilustrujące wykorzystanie generative AI jako narzędzia edukacyjnego. Przyjrzymy się, jak wykorzystanie asystentów AI w procesie nauki programowania wpływa na doświadczenia (nie tylko) młodych programistów.
Maria Ganzha - Bezpieczeństwo danych a modele językowe
Prezentacja Pani Marii koncentruje się na rozwiązaniach umożliwiających efektywne i bezpieczne przetwarzanie danych bez konieczności ich przesyłania, co jest kluczowe dla ochrony prywatności, szybkości odpowiedzi i zarządzania dużymi ilościami danych.
Kacper Łukawski - Czy AI naprawdę potrafi to, czego oczekujemy?
Nasze oczekiwania co do sztucznej inteligencji znacząco wykraczają ponad jej aktualne możliwości. Jej ograniczenia wynikają wprost z procesu trenowania. Podczas prezentacji przyjrzymy się temu w taki sposób uczone są najpopularniejsze modele i co z tego wynika dla nas, jako użytkowników. Zastanowimy się także czy możemy już mówić o kreatywności AI oraz o tym dlaczego w ostatnim czasie zaroiło się od pozwów przeciwko firmom stojącym za nowoczesnymi modelami.
Przemek Smyrdek i Marcin Czarkowski - Profesjonalny Prompt Engineering
W prelekcji zostanie przedstawiona sztuka tworzenia efektywnych zapytań dla modeli językowych, które potęgują ich zdolności do realizowania praktycznych zadań. Omówione zostaną podstawowe zagadnienia, najlepsze praktyki oraz zaawansowana technika Chain-of-Thought.
Tomasz Rożek - Gdzie kończy się wolna wola a zaczyna sztuczna inteligencja?
W czasie prelekcji zanurzymy się w fascynujący świat sztucznej inteligencji, badając jej wpływ na społeczeństwo i codzienne życie. Omówimy konkretne przypadki, w których AI już teraz wpływa na naszą codzienność, od medycyny po komunikację. Zastanowimy się również, jak rosnąca rola sztucznej inteligencji zmienia nasze postrzeganie życia, etyki i odpowiedzialności. Prelekcja będzie okazją do głębokiej refleksji na temat korzyści i wyzwań, jakie niesie ze sobą rozwój AI.
Lech Wikaryjczyk - Czego się uczyć, aby więcej zarabiać - rewolucja czy ewolucja na rynku pracy w AI
Za jakiś czas będziemy pewnie podawać kawę androidom siedzących przy biurkach, które kiedyś należały do nas. Póki co jednak nie należy się zamartwiać: warto spojrzeć na obecny rynek pracy i wycisnąć z niego ile się da. Tylko skąd wiedzieć, czego szukają pracodawcy? To proste! Zerknijmy na ogłoszenia o pracę, szczególnie że na stanowiskach związanych z AI, gdzie zarobki potrafiły urosnąć o kilkadziesiąt procent w ciągu ostatniego roku, a najlepiej płatne wakaty mają górne widełki przekraczające 100 000 zł/msc. Z drugiej strony mimo tych astronomicznych sum, liczba ofert pracy w AI nie wzrosła w takim tempie, jakby się można było spodziewać. Czy jesteśmy świadkami ewolucji czy rewolucji w IT? I co jeszcze ważniejsze - jak w tym wszystkim zdobyć dla siebie kawałek tortu (albo kawy)?
Petros Psyllos - Chat GPT - gdzie leżą granice dużych modeli językowych (LLM) i jak daleko jesteśmy od tego, jak działa nasz mózg?
Omówię perspektywy rozwoju dużych modeli językowych i sieci opartych na transformerach oraz ich możliwości i ograniczenia. Zastanowimy się, czy dalsze zwiększanie rozmiaru sieci będzie nadal przynosiło tak spektakularne efekty? A może zbliżamy się do szklanego sufitu? Jak daleko jesteśmy od symulowania procesów zachodzących w ludzkim mózgu - zarówno pod względem złożoności strukturalnej, jak i zdolności do generalizacji i twórczego myślenia? W jakim kierunku mogą zmierzać prace nad LLM?