Developer's Sandbox


Гео и язык канала: Беларусь, Русский
Категория: Технологии


Опыт и самообучение практикующего разработчика
Связь с автором: @alpa011235

Связанные каналы  |  Похожие каналы

Гео и язык канала
Беларусь, Русский
Категория
Технологии
Статистика
Фильтр публикаций


Привет! 👋
Поговорим на тему собеседований 💬

Для себя я определяю следующие виды ⤵️

0⃣ Ленивое — собеседующий не имеет четких критериев для отбора кандидата, например, это разработчик, которого попросили провести интервью помимо его работы, а ему это делать лень. В таком случае, просто гуглится топ ~10 вопросов по Java и кое-как формируется слабое представление о том, подходит ли человек. Отсюда такая потребность в вопросах вроде "Отличие ArrayList от LinkedList", "Расскажите про ACID", "Расскажите про контракт equals и hashCode" и т.д. которые можно выучить, и если кандидат даже ни разу не умеет писать код, принимать ответственность и решать реальные проблемы заказчика, он его пройдет. Отчасти от неподходящего кандидата поможет последующий испытательный срок, но он может длиться 3 месяца, а интервью от часа до трех, тут количество сил несоизмеримо, а хочется отсеивать неподходящих кандидатов как можно скорее, скажем так, по принципу fail fast 🙂

1⃣ Тестовое задание — компания выдает задачу, которую за определенное время нужно выполнить. Казалось бы, хороший способ проверить навыки на небольшом проекте, похожем на задачу из реальной работы, однако тут есть свои минусы. Обходится ли такая проверка? Да конечно, человек может обратиться к своему другу Senior'y, найти решение в интернете, т.к. это может быть далеко не первое собеседование в такую компанию и решение уже давно слили в сеть, а постоянно придумывать новые задачи не то чтобы хочется, учитывая, что задача должна быть похожа на что-то реальное, даже если слегка изменить ее вид, суть останется той же. И при последующем обосновании своего решения, если оно вообще будет, также можно большую часть заучить, и с большой вероятностью пройти этот этап.

2⃣ Под проект — собеседующий понимает для какой конкретной работы и с какими навыками ему нужен человек. Вопросы составляются исходя из того, что придется делать на работе. Если много работы с БД, значит вопросы на понимание работы с БД, если писать средней сложности API, значит вопросы по всему циклу написания API. Т.е. здесь работает принцип, чтобы найти как можно более подходящего по навыкам человека для конкретной работы, и не переплачивать за тот опыт, который вероятнее всего не пригодится, а именно не нанимать Senior'a с опытом 10+ лет за много денег, чтобы делать средней сложности API на условно стабильном проекте.

3⃣ Под компанию — в случае, когда в компании несколько проектов, и собеседующий понимает, чем занимается его компания и какие требования должны быть к кандидату, чтобы он подходил под как можно большее количество имеющихся проектов. В данном случае имеет смысл большее количество концептуальных вопросов и их понимание, т.к. если кандидат понимает принципы, например, разобрался с тем как устроен Spring, то поставив его на проект где используется Quarkus, он сможет разобраться в нем достаточно быстро и в приемлемом качестве. Такого кандидата в большей степени можно назвать инженером, чем разработчиком на определенном фреймворке.

4⃣ FAANG — условно стандартный подход, используемый Big Tech компаниями, включающий в себя, например, [Behavioral, Coding, System design] интервью в различных количествах и вариациях. В сети огромное количество материалов "как пройти в FAANG", тем не менее, задача эта не из легких и требует большой дисциплины. Сама идея построения процесса найма высококвалифицированных инженеров по Hard и Soft скилам, достаточно сложная, особенно с масштабом таких компаний. Не всем интересно долго решать задачи на Leetcode, однако таковы правила игры, с которыми многие могут быть не согласны. Что говорить, например, в Meta даже Git не используется, не говоря уже о Spring и других технологиях. Дает ли прохождение таких интервью гарантию, что вы идеальный разработчик? — Да нет, и вот пример.

Конечно, можно комбинировать подходы, но нет 100% рабочего метода, как быстро понять подойдет ли вам кандидат. Даже если вы уверены в своем методе, на определенной выборке кандидатов, у вас все равно будет определенный процент ошибок. Но это все лишь мое мнение 🙂

А что вы думаете по этому поводу?


Видео недоступно для предпросмотра
Смотреть в Telegram
Вторая запись тестирования формата Java Mock Interview 👨‍💻 [почему-то перестало записывать изображение, но только на теоретической части, пришлось вставить картинку 🫠]

Всем спасибо, кто присоединился и особенно за вашу активность! 👍

Я многое для себя подчерпнул 🤔
Поэтому следующим постом, как только его подготовлю, я опишу свои выводы и мысли, о разных способах проведения собеседований ✏️

А в комментариях под этим постом, я оставлю свой фидбек и свои решения задач "Error" и "Person" 🔊

Таймкоды:
1. Кратко про опыт 00:12
2. Разница между монолитом и микросервисами 02:08
3. Как делить на микросервисы 03:39
4. Troubleshooting в микросервисах 04:36
5. Способы общения между микросервисами 06:05
6. Гарантии доставки в Apache Kafka 08:45
7. SOLID 09:56
8. Идемпотентность 15:06
9. Connection Pool 16:40
10. Ключ партиционирования в Kafka 17:42
11. Типы БД 18:42
12. ACID 21:52
13. Блокировки 24:39
14. Индексы в БД 28:21
15. JMM 32:03
16. Отправка запросов в несколько потоков 33:07
17. Разная конфигурация на разных окружениях 35:16
18. Тестирование 36:36
19. Задача "Person" 44:00
20. Задача "Error" 55:21
21. Задача "Account" 01:09:23
22. Задача "Counter" 01:11:19
23. Outbox 01:16:11
24. Финальные разговоры 01:19:53

538 0 16 8 19

📶 Через 8 минут мы начинаем наше Mock interview, присоединиться в качестве зрителя в Google Meet можно по ссылке
[edited: завершено]


Видео недоступно для предпросмотра
Смотреть в Telegram
Итак, самая первая публичная версия Java Mock Interview [можно сказать бета тестирование 🫠]

Постепенно буду стараться улучшать формат, определенно моему навыку проведения интервью есть куда расти 🤔

В комментариях под этим видео поделюсь более подробным фидбеком и своими мыслями по поводу интервью 📞

Всем большое спасибо за то, что присоединились! 👨‍💻
Особенно респект Максиму за то, что не обладая большим опытом, не постеснялся поучаствовать 👍

Таймкоды:
1. Кратко про опыт 01:27
2. Иерархия коллекций и их реализации 03:27
3. Как работает HashMap 05:10
4. Контракт между equals и hashCode 06:37
5. Типы исключений 07:40
6. Про String Pool 08:59
7. Про try-with-resources 10:06
8. Отличие lambda-выражения от анонимного класса 11:23
9. Про Stream API 12:14
10. Что такое Spring Boot 13:33
11. Жизненный цикл бина 14:45
12. Что такое DI 15:12
13. Аннотация Transactional 16:46
14. AOP 18:02
15. ACID 19:01
16. Задача "Account" 19:44
17. Задача "Error" 29:26
18. Задача "Counter" 01:07:08
19. Финальные разговоры 01:18:09

728 0 23 4 22

📶 Через 15 минут мы начинаем наше Mock interview, присоединиться в качестве зрителя в Google Meet можно по ссылке
[edited: завершено]


Всем привет! 💻

Добавил 2 места на Mock interview:
1⃣ В субботу на 18:00 (GMT+3)
2⃣ В воскресенье на 15:00 (GMT+3)

Записаться можно по ссылке — mock ✅[edited: все забронировано]

Напоминаю формат:
1⃣ Встречаемся в назначенное время в Google Meet. [Камера по желанию]
2⃣ Строим план собеседования и разговариваем про опыт. [Собеседование на русском, в будущем можно будет на английском]
3⃣ Вопросы будут про — Java, Spring, работу с БД, микросервисы, очереди и т.д. что является сейчас актуальным
4⃣ Подойдет уровням Junior/Middle/Senior
5⃣ Сразу отвечать на вопросы не будем, а будем идти дальше. Весь разбор и фидбек в конце интервью, где мы обменяемся отзывами

Кое что изменил:
1⃣ Длительность собеседования будет 1.5 часа, в прошлый раз часа не хватило
2⃣ Сделаю митинг публичным и опубликую на канале ссылку, чтобы каждый мог в качестве зрителя зайти и посмотреть. Но запись самого собеседования все еще будет по желанию.
3⃣ Желательно иметь установленную IDE [Я надеюсь успеть подготовить некоторые практические задачи]

Если есть вопросы, буду ждать в комментариях 👨‍💻


Всем привет! 👋

Наконец-то получилось подготовиться и освободить время под Mock interview 📞

Планирую примерно такой формат:

0⃣ Делаю пост о свободном времени с ссылкой на Google Meet, где можно забронировать встречу, выбрав подходящее время.
1⃣ Встречаемся в назначенное время в Google Meet. [Камера по желанию]
2⃣ Строим план собеседования и разговариваем про опыт. [Собеседование на русском, в будущем можно будет на английском]
3⃣ Вопросы будут про — Java, Spring, работу с БД, очереди. [И некоторые другие общие вопросы, зависит от уровня собеседуемого]
4⃣ Длительность собеседования около часа, но тут как пойдет.
5⃣ В конце делимся отзывами о том как прошло интервью.
6⃣ Mock interview постараюсь построить так, чтобы было интересно специалистам уровня junior/middle/senior.
7⃣ Запись видео индивидуально по желанию, выкладывать на канал не планирую

И уже сегодня хочу устроить тестирование этого формата, есть 2 места, если есть желающие, буду рад 👨‍💻

Забронировать время на сегодня можно по ссылке — mock
Если есть вопросы/пожелания, буду ждать в комментариях 🤔


Всем привет! 👋

Последнее время пропал с радаров 🫠

Довольно много времени уходило на подготовку статьи и постоянно откладывал на потом, чтобы написать в желаемом качестве, и вот уже прошел не один месяц 😵‍💫
Помимо этого, стал больше изучать алгоритмы, но чтобы писать по ним статьи, еще нужно разобраться 👨‍💻

Также недавно я проходил Mock Coding Interview у автора канала FAANG Master✈️. Было полезно. Искренне рекомендую вам этот канал, если вам интересна эта тема.

И напоследок:
Как-то в первом сообщении на канале я упоминал, что интересно было бы и самому проводить Mock-интервью [бесплатно] на Java разработчика [Junior, Middle, Senior].

Хотел бы узнать, насколько это интересно вам, - поэтому жду ваших реакций:
👍 — если интересно пройти Mock-интервью


Что такое Spring Boot и для чего он используется?

🌱 Spring Bootopen-source фреймворк, упрощающий конфигурацию Spring приложений

Современные приложения используют готовые библиотеки, которые необходимо конфигурировать. Код, отвечающий лишь за запуск приложения, усложняется.

Благодаря convention over configuration подходу, Spring Boot позволяет значительно упростить код. Например:
— подключив spring-boot-starter-actuator в Maven/Gradle мы получаем рабочий функционал мониторинга
— подключив flyway-core и положив файлы миграций в директорию db/migration, они будут автоматически выполнены

За счет чего это работает?

За счет исполнения кода автоконфигураций

Автоконфигурация — обычный бин, помеченный аннотацией Configuration или Autoconfiguration и объявленный в файле META-INF/spring.factories [до версии 2.7] или META-INF/spring/org.springframework.boot.autoconfigure.AutoConfiguration.import [c версии 2.7]

Библиотека, содержащая автоконфигурацию, имеет название Spring Boot Starter

Подключая в наш проект starter, фреймворк автоматически исполняет код автоконфигураций, создавая необходимые бины и исполняя логику, задуманную конкретной библиотекой

А благодаря Conditional аннотациям, такая логика может быть очень гибкой. Например:
— ConditionalOnMissingBean создаст бин, если нет другой реализации
— ConditionalOnProperty создаст бин при наличии определенного свойства в application.yaml

Что еще есть?

Spring Boot предоставляет BOM [Bill Of Materials] spring-boot-dependencies, являющийся готовым набором совместимых между собой версий библиотек

Это дает нам возможность не указывать явно версии для большого количества зависимостей в Maven/Gradle

В наших примерах по работе с БД было много повторяющегося кода. Я вынес общий код в starter и теперь все примеры реализуют один и тот же API контракт:

📚 JDBC
💡 jOOQ
🐦 MyBatis
🪞 Hibernate
🌱 Spring JDBC
🌱 Spring Data JDBC
🌱 Spring Data JPA

#sandbox #java_database_tools_starter

Меню
Подпишись: @developer_sandbox


Во время работы над постом я сталкиваюсь с нюансами, которые не всегда можно правильно описать в самом посте.
Например, из-за объема либо неподходящего контекста

Однако поделиться хотелось бы и для этого я создал чат, в котором планирую писать о нюансах [как что-то работает или не работает] гораздо чаще, ведь для этого не нужно готовить целый пост

Как еще можно использовать чат?
— Анонсы и обсуждение будущих постов
— Можете задавать вопросы любого уровня
— Будем общаться вместе на тему разработки [можно общаться свободно, а нюансы, которые я планирую писать, буду выделять тегами, чтобы их можно было найти]

Недавно посмотрел один интересный доклад, и мой краткий пересказ со ссылкой на сам доклад как раз будут в чате

Присоединяйтесь по ссылке — 📦 Developer's Chat


В прошлый раз мы рассмотрели как выглядит одно и то же приложение, при использовании технологий — JDBC, Spring JDBC, Hibernate и Spring Data JPA.

Давайте теперь добавим еще технологий — Spring Data JDBC, MyBatis, JOOQ.

🌱 Spring Data JDBC — реализация ORM фреймворка от Spring. Внутри не использует Hibernate, а отправляет запросы, используя JdbcTemplate.

Имеет свои аннотации [Id, Column, MappedColleсtion и т.д.] в пакете org.springframework.data.annotation.
Поддерживает генерацию SQL на основе имени метода в репозитории.

Какие отличия от Hibernate?
— Отсутствует свой язык запросов [нет JPQL, только SQL]
— Отсутствует Lazy Loading [one-to-many отношение будет получено сразу, вместе с N+1 проблемой]
— Отсутствует кеширование [не отслеживается состояние сущности. Нужно явно вызывать методы репозитория]
— По умолчанию поддерживается только тип Identity для генерации id [поддержку Sequence, UUID нужно написать самим]
— По умолчанию нет поддержки Batch операций [поддержку можно написать через свой абстрактный репозиторий]

Основным подходом является DDD [Domain-Driven Design], и понятие Aggregate является ключевым при работе с фреймворком, например:
— Нет явной поддержки many-to-one [можно получить только id связанной сущности либо объект AggregateReference]
— Нет явной поддержки many-to-many [нужно создать отдельную сущность]
— Каскадные операции применяются только для агрегата [при обновлении агрегата, дочерние сущности пересоздаются]

Пример доступен на 🐙Github

🐦 MyBatis — persistence framework. Имеет более низкоуровневый API, чем Spring Data JDBC/JPA, но более высокоуровневый, чем JDBC/Spring JDBC.

Какие основные особенности?
— В качестве сущности может использоваться POJO [Plain Old Java Object]
— Вместо Repository используется понятие Mapper [имеет свой дополнительный синтаксис при написании SQL]
— Конфигурируется с помощью XML либо аннотаций
— Имеет свой генератор кода, генерирующий простой CRUD и сами сущности на основе БД

Пример доступен на 🐙Github

💡 jOOQ [java Object Oriented Querying] — библиотека, генерирующая DSL [Domain Specific Language] для работы с SQL в формате type safe через fluent API.

Какие основные особенности?
— Генерирует сущности на основе БД, а также DAO классы с набором готовых методов
— Генератор гибко настраивается [можно добавить equals, hashCode. Аннотации JPA и Spring Context и т.д.]
— По умолчанию использует стратегию именования сгенерированных классов по имени таблицы [если их назвать во множественном числе, такие классы и получим. Исправить можно через свою стратегию именования]
— Иногда совмещают с более высокоуровневыми Spring Data JDBC/JPA

Пример доступен на 🐙Github

#sandbox_java_database_tools

Меню
Подпишись: @developer_sandbox


Новогодние праздники внесли свои коррективы и что-то "Буду стараться писать одну/две статьи в неделю" не получилось 🫠

Тем не менее, продолжим и поговорим о консольных инструментах Apache Kafka

Почему именно консольных?

Есть большое количество продуктов, предоставляющих UI для Apache Kafka, среди них:
1⃣ UI for Apache Kafka, используемый в моих примерах
2⃣ AKHQ
3⃣ Confluent Control Centre
4⃣ Offset Explorer
5⃣ Kafka IDEA Plugin

Однако, судя по опыту, не всегда на проекте есть Web UI, иногда даже может не быть прямого доступа из локальной машины, а на сервере таких инструментов не будет

Помимо этого, данные инструменты умеют далеко не все, что предоставляют их консольные аналоги, а если и умеют, то платно

Поэтому переходим к консольным инструментам, а среди них:
1⃣ Kafka tools — инструменты входящие в состав самой Apache Kafka
2⃣ Kcat — предоставляет более удобный интерфейс, но требует отдельной установки

Давайте остановимся на Kafka tools, и посмотрим, какие операции мы можем выполнить:

📖 kafka-configs.sh
➖ Получить полную конфигурацию брокера/топика
➖ Добавить или обновить конфигурацию брокера/топика
➖ Удалить или сбросить до значения по умолчанию конфигурацию брокера/топика

📖 kafka-topics.sh
➖ Получить список всех топиков
➖ Получить информацию по топику
➖ Создать топик с заданной конфигурацией
➖ Увеличить топику количество партиций
➖ Удалить топик
➖ Удалить все сообщения в топике

📖 kafka-delete-records.sh
➖ Удалить сообщения в топике с самого начала до определенного offset'a

📖 kafka-console-consumer.sh
➖ Прочитать все сообщения с самого начала либо под определенной consumer-group
➖ Прочитать одно сообщение с определенной партиции и offset'a

📖 kafka-console-producer.sh
➖ Отправить сообщение с возможностью указания key,value,headers
➖ Если совместить kafka-console-consumer и kafka-console-producer, можно скопировать все сообщения из одного топика в другой [Например из DLT в основной, чтобы заново обработать сообщения]

📖 kafka-consumer-groups.sh
➖ Получить информацию о всех/одной consumer group
➖ Получить план по сбрасыванию offset'a для заданной consumer group
➖ Сбросить offset до самого начала или определенного значения для заданной consumer group

📖 kafka-log-dirs.sh
➖ Получить информацию об объеме данных в топике по каждой партиции, а также суммарно

📖 kafka-run-class.sh
➖ Получить текущий последний offset в топике
➖ Сделать partition log dump

📖 kafka-reassign-partitions.sh
➖ Сгенерировать и выполнить reassigning plan, по которому можно перераспределить партиции в кластере

📖 kafka-producer-perf-test.sh
➖ Провести нагрузочное тестирование со стороны Producer'a и получить детальный отчет

📖 kafka-consumer-perf-test.sh
➖ Провести нагрузочное тестирование со стороны Consumer'a и получить детальный отчет

И это далеко не все возможности, которые предоставляют консольные инструменты. Я привел лишь основные.

Вы можете попробовать запустить их сами, они доступны на 🐙Github, рекомендую сначала ознакомиться с quick-start.md

До новых встреч!

#sandbox_kafka #cheatsheet #console_tools

 Меню
 Подпишись: @developer_sandbox


Наступает 2024 год ♥️

Хочу пожелать всем успехов в Новом Году! 🎄🎁

Тем, кто ищет работу - найти ее и стать частью хорошей команды 🎁
Тем, кто уже работает - профессиональных достижений и комфортных сроков 🎁
Какой бы уровень знаний ни был, мы продолжаем учиться и получать новый опыт, а обмениваясь им, мы экономим время и силы друг друга ✅

Благодарю вас за то, что читаете этот канал, ставите реакции и пишете комментарии! 🐱
И поздравляю Вас с наступающим 2024 годом!❄️

———
Небольшая статистика:
Канал создан 14.06.2022
Первый пост я опубликовал 15.07.2023, вышло, что от идеи до начала реализации прошел год и 1 месяц
На сегодняшний день '31.12.2023', написано 28 постов и 41 пример на 🐙Github, они доступны в обновляющемся Меню

———
Обновление:
В IDEA есть Run Configurations, благодаря которым можно по одному клику настроить, что конкретно будет запускаться, и их можно сохранить в файл
Т.е. когда кто-то через IDEA откроет проект, они будут у него доступны

Я добавил их в каждый репозиторий:
📦 sandbox
☕️ sandbox-java
🌱 sandbox-spring-context
🌱 sandbox-web
🐘 sandbox-postgresql
🌱 sandbox-spring-data-jpa
📖 sandbox-kafka

Особенно это удобно для 📖sandbox-kafka, в котором, по одному клику можно запустить кластер с одним брокером, либо с двумя, либо добавить мониторинг, и еще, в дополнении к confluentinc image, добавились и другие — bitnami и wurstmeister


Какие существуют типы связей в JPA?

В предыдущей статье, мы поговорили о типах связей в реляционных БД. Давайте рассмотрим их реализации в JPA, на примере нашей доменной модели — Библиотеки, где у нас есть две сущности — Author и Book

Начнем с One to One, который можно реализовать двумя способами:
1⃣ Через аннотацию MapsId [этот вариант мы рассмотрим в отдельной статье]
2⃣ Через аннотацию OneToOne:
// Book.class
@OneToOne
// Annotation @JoinColumn(name = "author_id", nullable = false, unique = true) can be skipped,
// because of default name mapping
private Author author;

А что в классе Author?
Представим, что мы вновь работаем только с SQL. Тогда, зная id сущности Author, мы можем получить как самого автора, так и его книгу. [автора по id, а книгу по author_id].

Теперь, возвращаемся к JPA. Если у нас нету ссылки на класс Book в классе Author, то по-умолчанию, самого автора получить мы можем, а вот его книгу — нет. Чтобы исправить это, нам нужно указать связь и в классе Author:
// Author.class
/*
* One Author to One Book
* Bidirectional relationship
* Owner of the relationship is Book [because books table contains foreign key to authors table],
* linked by 'author' field in Book class
*/
@OneToOne(mappedBy = "author")
private Book book;
Таким образом, в JPA выделяют два типа связей:
1⃣ Unidirectional — когда мы взаимодействуем только с owning side [тот, кто имеет foreign key, в нашем примере — Book.class]
2⃣ Bidirectional — когда нам необходимо через unowned side [тот, на кого ссылаются через foreign key, в нашем примере — Author.class], получить доступ к owning side [Book.class]. Для этого существует параметр mappedBy, в котором указывается поле из owning side [Book.class], которое ссылается через foreign key на unowned side [Author.class].

При использовании Bidirectional связи, появляются дополнительные проблемы, которые необходимо учитывать, например:
❌ В методах equals, hashCode, toString, а также при сериализации можно получить java.lang.StackOverflowError
❌ Если мы меняем только unowned side, без изменения owning side, то автоматически такие изменения не будут синхронизорованы с БД
❌ Для write операций необходимо поддерживать Bidirectional setter'ы, чтобы данные оставались консистентными в БД

Unidirectional пример доступен на 🐙Github
Bidirectional пример доступен на 🐙Github

One to Many и Many to One:
// Book.class
@ManyToOne
// Annotation @JoinColumn(name = "author_id", nullable = false) can be skipped,
// because of default name mapping
private Author author;

// Author.class
/*
* One Author to Many Books
* Bidirectional relationship
* Owner of the relationship is Book [because books table contains foreign key to authors table],
* linked by 'author' field in Book class
*/
@OneToMany(mappedBy = "author")
private Set books;
Hibernate не советует использовать аннотацию OneToMany без ManyToOne, о чем упоминается в документации

Unidirectional пример доступен на 🐙Github
Bidirectional пример доступен на 🐙Github

Many to Many:
// Book.class
@ManyToMany
@JoinTable(
name = "books_authors",
joinColumns = @JoinColumn(name = "book_id", nullable = false),
inverseJoinColumns = @JoinColumn(name = "author_id", nullable = false)
)
private Set authors;

// Author.class
/*
*
* Many Authors to Many Books
* Bidirectional relationship
* Owner of the relationship is Book,
* linked by 'authors' field in Book class. If required, Author can be owner side
*/
@ManyToMany(mappedBy = "authors")
private Set books;
Если возникает необходимость добавить дополнительные колонки в таблицу со связями и использовать их, то придется создавать дополнительную Entity. Об этом случае хорошо написано в документации

Unidirectional пример доступен на 🐙Github
Bidirectional пример доступен на 🐙Github

#sandbox_spring_data_jpa #relationships

 Меню
 Подпишись: @developer_sandbox


Как при работе с JDBC настроить логирование SQL запросов?

При использовании ORM на этапе разработки, часто возникает необходимость посмотреть какой именно SQL запрос генерируется для отправки в БД, чтобы вовремя обнаружить ошибки и сравнить ожидаемый запрос с реальным

Желательно, чтобы параметры уже были подставлены для сгенерированного SQL запроса, чтобы можно было его скопировать и используя, например — DBeaver, DataGrip, pgAdmin, отправить и посмотреть на результат, либо более детально его проанализировать

🪞 Hibernate имеет свойства show_sql, format_sql, highlight_sql, позволяющие выводить сгенерированный ORM’ом SQL запрос в форматированном виде

Если добавить логгер — org.hibernate.orm.jdbc.bind: trace, то мы увидим еще и параметры, но в нужное место в запросе нам придется подставлять их самостоятельно

Какие есть еще варианты?

На картинке отображается пример логов при выполнении SQL запроса из примера на 🐙Github. На консоль выводится:

1⃣ Connection URL с дополнительными параметрами
2⃣ SQL запрос с подставленными параметрами
3⃣ ResultSet в виде таблицы, как результат выполнения запроса
4⃣ Json объект, как результат сбора информации из ResultSet’a в сущность

Для получения таких, либо похожих логов, есть несколько инструментов:

1⃣ log4jdbc — proxy для JDBC драйвера. Логирует SQL запрос с подставленными параметрами и время его выполнения. Пример доступен на 🐙Github

2⃣ log4jdbc-remix — форк log4jdbc проекта, добавляющий тот самый вывод ResultSet'a в виде таблицы. Был переименован в log4jdbc-log4j2 как его продолжение, но на данный момент заброшен. Пример доступен на 🐙Github

3⃣ p6spy — более масштабный проект, позволяющий добавлять свои formatter'ы, настраивается более гибко через spy.properties. Пример доступен на 🐙Github

4⃣ datasource-proxy — особых преимуществ над стандартными средствами Hibernate не заметил, но свою задачу выполняет. Пример доступен на 🐙Github

#sandbox_java_database_tools

 Меню
 Подпишись: @developer_sandbox


Хотел написать в одной статье о типах связей в реляционных БД, и как их реализовать в JPA

Однако в одну статью с примерами кода не поместилось, поэтому разделил на две статьи и создал отдельные репозитории:
🐘 sandbox-postgresql
🌱 sandbox-spring-data-jpa

Если в статье SQL код неправильно отображается, нужно обновить Telegram.

Какие существуют типы связей в реляционных БД?

Рассмотрим на примере нашей любимой доменной модели — Библиотеки
У нас будут две сущности — Книга, Автор
В зависимости от наших требований к системе, мы будем строить нужную связь между сущностями

Требование:
В нашей системе мы хотим чтобы у одной книги был только один автор. А также, чтобы автор имел возможность написать только одну книгу.

Решение:
Для реализации такой модели данных нам подойдет отношение One to One [читается как “один автор — одна книга”]:
CREATE TABLE authors
(
id BIGSERIAL NOT NULL PRIMARY KEY,
name VARCHAR(64) NOT NULL
);

CREATE TABLE books
(
id BIGSERIAL NOT NULL PRIMARY KEY,
title VARCHAR(128) NOT NULL,
author_id BIGINT NOT NULL UNIQUE REFERENCES authors (id)
);
Здесь важно установить UNIQUE constraint, в нашем случае на поле author_id, чтобы разные книги не могли ссылаться на одного автора.

Также вместо author_id, можно сделать book_id в таблице authors, и наше требование тоже выполнится.
Таким образом мы выбираем, кто будет владельцем связи, Book или Author [об этом будет подробнее в статье про Spring Data JPA, но если кратко, тот у кого в таблице foreign key]

Пример доступен на 🐙Github

Требование:
В нашей системе мы хотим чтобы у одной книги был только один автор. Однако, автор может написать сколько угодно книг.

Решение:
В этом случае нам подойдет отношение One to Many [читается как “один автор — множество книг”]
Иногда выделяют отношение Many to One [читается как “множество книг — один автор”], разницы в реализации между ними нету, мы только меняем акцент, когда говорим что с чем связано
CREATE TABLE authors
(
id BIGSERIAL NOT NULL PRIMARY KEY,
name VARCHAR(64) NOT NULL
);

CREATE TABLE books
(
id BIGSERIAL NOT NULL PRIMARY KEY,
title VARCHAR(128) NOT NULL,
author_id BIGINT NOT NULL REFERENCES authors (id)
);
Единственная разница в реализации между One to One и One to Many, что теперь у нас нету UNIQUE constraint для поля author_id

Также если мы сделаем book_id в таблице authors вместо author_id в таблице books, то наше требование не выполнится, потому что тогда автор сможет иметь только одну книгу
[Поэтому в JPA у аннотации ManyToOne нету параметра mappedBy, потому что такая сущность точно является владельцем связи, т.е. имеет foreign key на другую сущность]

Пример доступен на 🐙Github

Требование:
В нашей системе мы хотим чтобы у одной книги было сколько угодно авторов. А также, автор может написать сколько угодно книг.

Решение:
Здесь нам подходит Many to Many [читается как “множество авторов — множество книг”]:
CREATE TABLE authors
(
id BIGSERIAL NOT NULL PRIMARY KEY,
name VARCHAR(64) NOT NULL
);

CREATE TABLE books
(
id BIGSERIAL NOT NULL PRIMARY KEY,
title VARCHAR(128) NOT NULL
);

CREATE TABLE books_authors
(
id BIGSERIAL NOT NULL PRIMARY KEY,
book_id BIGINT NOT NULL REFERENCES books (id),
author_id BIGINT NOT NULL REFERENCES authors (id),
UNIQUE (book_id, author_id)
);
Создается дополнительная таблица books_authors, указывающая нужные связи между сущностями
Не стоит также забывать о добавлении UNIQUE constraint’a на связь book_id и author_id, чтобы связь была уникальной

Пример доступен на 🐙Github

#sandbox_postgresql #relationships

 Меню
 Подпишись: @developer_sandbox


После продолжительного перерыва, я вернулся с новой статьей. Буду стараться писать одну/две статьи в неделю.

Давайте напишем одинаковое приложение, используя JDBC, Spring JDBC, Hibernate и Spring Data JPA. Посмотрим наглядно, как исторически повышался уровень абстракции при работе с БД в Java мире.

❓ Какое приложение напишем?

CRUD для работы с сущностью Book и ее связями — Author, Comment, Genre

Реализуем API для:
1⃣ Получения всех книг и ее связей
2⃣ Получения книги по id и ее связей
3⃣ Создания книги и ее связей
4⃣ Обновления книги и ее связей
5⃣ Удаления книги и ее комментариев и информации о жанрах

Модель данных опишем таблицами:
1⃣ books — данные о книгах
2⃣ authors — данные об авторах. С books “one-to-one”
3⃣ genres — данные о жанрах
4⃣ comments — данные о комментариях к книгам. С books “one-to-many”
5⃣ books_genres — промежуточная таблица для создания “many-to-many” между books и genres

Начнем в порядке повышения уровня абстракции:

📚 JDBC [Java Database Connectivity] — спецификация синхронного API для работы с реляционными БД из Java приложений. Входит в состав Java SE.

Реализацию API предоставляет JDBC драйвер.
Например, для PostgresSQL есть драйвер postgresql-42.6.0.jar, внутри есть класс PgResultSet, реализующий интерфейс java.sql.ResultSet из JDBC спецификации.

Для отправки SQL запроса, нужно:
1⃣ Получить Connection
2⃣ Создать Statement, передав SQL запрос в виде String
3⃣ Если это параметризованный запрос, то передать параметры через .set методы в Statement’e
4⃣ Выполнить запрос и получить ResultSet
5⃣ Разобрать ResultSet, получив из него данные для создания объектов Book, Author, Comment, Genre
6⃣ Закрыть ResultSet
7⃣ Закрыть Statement
8⃣ Закрыть Connection

Пример доступен на 🐙Github

🌱 Spring JDBC — набор абстракций, упрощяющий написание кода при работе с JDBC. Чтобы как можно меньше шагов пришлось писать самому.

Например, аннотация Transactional для механизма транзакций, класс NamedParameterJdbcOperations для выполнения запросов.

Теперь нам не нужно самостоятельно открывать Connection и закрывать его вместе с Statement и ResultSet. Однако разбирать данные из ResultSet'a все еще нужно вручную.

Пример доступен на 🐙Github

🪞 Hibernate — ORM [Object Relational Mapping] фреймворк. Реализует JPA спецификацию. Переход от реляционной парадигмы в ООП парадигму. Сама реализация для доступа к БД использует тот же JDBC.

Мы начинаем работать с таблицами из БД как с Java объектами. Убирается необходимость самостоятельного разбора ResultSet'ов. Вводится понятие HQL [в спецификации JPA называется JPQL], как универсального языка запросов, для обеспечения независимости от реализации БД.

Однако появляется N+1 проблема, и множество других подводных камней, которые нужно учесть, чтобы ORM фреймворк генерировал оптимальный SQL.

Пример доступен на 🐙Github

🌱 Spring Data JPA — часть umbrella проекта Spring Data, представляет дополнительный уровень абстракции над JPA. По-умолчанию использует Hibernate как JPA реализацию.

Благодаря абстракции Repository, позволяет генерировать запросы на основе имени метода, убирая возможность в некоторых ситуациях писать даже JPQL. Помимо этого имеет и много других возможностей, значительно ускоряя написание кода.

Содержит все те же недостатки что и Hibernate [в случае если используется именно он как реализация JPA].

Пример доступен на 🐙Github

#sandbox_java_database_tools

 Меню
 Подпишись: @developer_sandbox

2.3k 0 34 12 42

Планирую выбрать новое название для канала, что думаете?
Опрос
  •   Dev Sandbox
  •   IT Sandbox
  •   Другое (предложить свой вариант в комментариях)
  •   Оставить текущее название
235 голосов


Какое количество технических собеседований у вас было?
Опрос
  •  
  •   1-5
  •   5-10
  •   10+
372 голосов


❓ Что такое delivery semantics в Apache Kafka?

Delivery semantics [delivery guarantees, processing guarantees] — это способы доставки сообщений, т.е. как именно будут взаимодействовать между собой Producer, Broker и Consumer для того чтобы доставить сообщение.

Рассмотрим на примере классической схемы. У нас есть:
1⃣ Kafka Cluster с любым количеством Broker’ов
2⃣ Producer — читает данные из БД и отправляет их в виде сообщения Broker’у в demo.topic
3⃣ Consumer — подписан на demo.topic, если сообщение пришло, то читает его и сохраняет данные в БД
Для примера неважно какие используются БД у Consumer’a и Producer’a

Доставка сообщения в нашем случае может состоять из шагов:
Шаг 1. Producer читает данные из БД
Шаг 2. Producer отправляет сообщение Broker’y в demo.topic
Шаг 3. Broker сохраняет сообщение в demo.topic’e
Шаг 4. Broker уведомляет Producer’a, подтверждая что сообщение сохранено [acknowledgment]
Шаг 5. Consumer читает сообщение из demo.topic’a
Шаг 6. Consumer уведомляет Broker’a, что сообщение успешно прочитано [offset commit]
Шаг 7. Consumer сохраняет данные в БД

❓ Что может пойти не так?
На каждом шаге может произойти сбой, например:
❌ Закончилась оперативная память — OutOfMemoryError
❌ Закончилось место на диске
❌ Временный сбой в сети
❌ Случился timeout, например, Шаг 3 — Broker слишком долго сохранял сообщение

В зависимости от того, какие гарантии мы хотим получить в случае если что-то пойдет не так, мы используем разные delivery semantics.

Delivery semantics для Producer’a:

1⃣ At most once — сообщение будет отправлено максимум 1 раз. Producer отправляет сообщение и не ждет от Broker’a acknowledgment, а если Broker не смог его записать, сообщение больше отправляться не будет, оно утеряно. Принцип ‘fire-and-forget’.

2⃣ At least once — сообщение будет отправлено минимум 1 раз. Producer отправляет сообщение и ждет acknowledgment, а если Broker не отправил acknowledgment, то Producer заново отправит сообщение.
Тут может быть ситуация, если Broker записал сообщение, но вышел из строя на этапе отправки acknowledgment’a, и когда Broker восстановится и Producer переотправит сообщение, то мы по сути создадим дубликат, сохранив в Broker’e дважды одно сообщение.

3⃣ Exactly once — сообщение будет отправлено только 1 раз. Producer отравляет сообщение и ждет acknowledgment, а если Broker не отправил acknowledgment, то Producer заново отправит сообщение, и если Broker упадет на этапе отправки acknowledgment’a и получит дубликат, он это поймет и не будет записывать одно и тоже сообщение дважды. Здесь мы не теряем сообщения и не создаем дубликаты.

Delivery semantics для Consumer’a:

1⃣ At most once — сообщение будет прочитано максимум 1 раз. Consumer читает сообщение из Broker’a и если он не может его обработать, перечитывать его не будет.
У нас Шаг 7, например, Spring приложение Consumer упало с OOM и потом поднялось, но перечитывать сообщение не будет хоть и могло бы записать что-то в БД. Тут мы теряем обработку сообщения.

2⃣ At least once — сообщение будет прочитано минимум 1 раз. Consumer читает сообщение из Broker’a и если он не может его обработать, он заново его перечитает.
У нас Шаг 6 и Шаг 7 меняются местами, однако, например, мы делаем транзакцию в БД, хотим сделать commit offset и падаем с OOM, и когда поднимаемся, то перечитываем сообщение и делаем ту же транзакцию, что может создать дубликат в БД.

3⃣ Exactly once — сообщение будет прочитано только 1 раз. Consumer читает сообщение из Broker’a и если он не может его обработать, он заново его перечитает.
Чтобы не создать дубликат и не потерять обработку сообщения у нас есть 2 варианта:
— Транзакция в БД идемпотентна и если мы повторим ее, то ничего не изменится
— Мы делаем commit offset в рамках транзакции к БД [необязательно хранить offset в Broker’e, можно хранить их в БД], чтобы Шаг 6 и Шаг 7 был одним атомарным шагом. Тогда у нас нет дубликатов и обработку сообщения мы не теряем

Немного рефакторинга — 🐙Github

#sandbox_kafka #spring_boot_kafka

 Меню
 Подпишись: @developer_sandbox

Показано 20 последних публикаций.