<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
<channel>
<title>Факультет радіоелектроніки, комп’ютерних систем та інфокомунікацій (№ 5)</title>
<link>http://dspace.library.khai.edu/xmlui/handle/123456789/203</link>
<description/>
<pubDate>Mon, 06 Apr 2026 03:48:02 GMT</pubDate>
<dc:date>2026-04-06T03:48:02Z</dc:date>
<item>
<title>Comparative analysis of the effectiveness of BPG, AGU, AVIF and HEIF compression methods for medical images corrupted by noise of two types</title>
<link>http://dspace.library.khai.edu/xmlui/handle/123456789/9117</link>
<description>Comparative analysis of the effectiveness of BPG, AGU, AVIF and HEIF compression methods for medical images corrupted by noise of two types
Naumenko, V.; Lukin, V.; Naumenko, V.
The subject matter is lossy compression using the BPG, AGU, AVIF, and HEIF encoders for medical images with different levels of visual complexity corrupted by additive Gaussian and Poisson noise. The goal of this study is to compare encoders regarding optimal image compression parameters and select the most suitable metric to determine the optimal operation point. The tasks considered include: selecting 512x512 grayscale test images with various degrees of visual complexity, including visually complex images rich in edges and textures, moderately complex images with edges and textures adjacent to homogeneous areas, and visually simple images consisting mainly of homogeneous areas; establishing image quality assessment metrics and evaluating their effectiveness under different encoder compression parameters; selecting one or more metrics that clearly determine the position of the optimal operation point; providing recommendations based on the results obtained for compressing medical images corrupted by additive white Gaussian and Poisson noises using four encoders to maximize the quality of the restored image to the noise-free original. The employed methods encompass image quality assessment techniques employing MSE, PSNR, and MSSIM metrics, as well as software modeling in Python without using the built-in Poisson noise generator. The results show that optimal operation points (OOPs) can be determined for all these metrics when the quality of the compressed image is better than the quality of the corresponding noisy original image, accompanied by a sufficiently high compression ratio. Moreover, achieving an appropriate balance between the compression ratio and image quality leads to partial noise reduction without noticeable information content distortion in the compressed image. This study emphasizes the importance of using appropriate metrics to assess the quality of compressed medical images and provides insight into the determination of the compression parameter Q to achieve the optimal operation point of the BPG encoder for specific images. However, the position of the OOP and its presence depend not only on the image complexity but also on the chosen encoder. Conclusions. The scientific novelty of the obtained results includes: 1) The consideration of noise models and parameter levels typical for medical imaging, namely, additive Gaussian noise of such intensity that it approximately corresponds to just noticeable differences, and signal-dependent Poisson noise; 2) The analysis of the multi-scale structural similarity index (MS-SSIM), which has not been previously explored in studies on lossy compression of noisy medical images; 3) A detailed examination of AVIF and HEIF coders to determine whether the optimal operating point (OOP) is observed for them and under which noise conditions; 4) The use of a dataset comprising ten medical images of varying visual complexity, with generalized tendencies revealed for different structural types; 5) The identification of the ability of many metrics to exhibit an OOP for images of moderate visual complexity or those dominated by homogeneous areas; 6) For Poisson noise, the demonstration of a dependence between the quality factor Q in the OOP and the average image intensity, which can be practically estimated for a given image; 7) The finding that different encoders require different approaches to determine their respective OOPs due to their distinct compression control parameters; 8) The observation that compression ratios achieved at the OOP are generally high, supporting the feasibility of using the OOP or its neighbourhood in practice.; Предметом дослідження є стиснення з втратами за допомогою кодерів BPG, AGU, AVIF та HEIF медичних зображень з різним рівнем візуальної складності, спотворених адитивним гаусівським та пуассонівським шумом. Метою роботи є порівняння кодерів щодо оптимальних параметрів стиснення зображень та вибір найбільш придатної метрики для визначення оптимальної робочої точки. Розглянуті задачі включають вибір тестових зображень у відтінках сірого 512x512 з різним ступенем візуальної складності, включаючи візуально складні зображення з великою кількістю країв та текстур, помірно складні зображення з краями та текстурами, що прилягають до однорідних областей, та візуально прості зображення, що складаються переважно з однорідних областей; встановлення метрик оцінки якості зображень та оцінка їх ефективності при різних параметрах стиснення кодерів; вибір однієї або декількох метрик, які чітко визначають положення оптимальної робочої точки; надання на основі отриманих результатів рекомендацій щодо стиснення медичних зображень, спотворених адитивними гаусівським та пуассонівським шумами, чотирма кодерами з метою максимального наближення якості відновленого зображення до зашумленого оригіналу. Використані методи включають методи оцінки якості зображень з використанням метрик MSE, PSNR і MSSIM, а також програмне моделювання на мові Python без використання вбудованого генератора пуассонівського шуму. Результати показують, що для всіх цих метрик можна визначити оптимальні робочі точки (ОРТ), коли якість стисненого зображення є кращою за якість відповідного зашумленого вихідного зображення при достатньо високому ступені стиснення. Більше того, досягнення відповідного балансу між ступенем стиснення та якістю зображення призводить до часткового зменшення шуму без помітного спотворення інформативності стисненого зображення. Дослідження підкреслює важливість використання відповідних метрик для оцінки якості стиснених медичних зображень і дає уявлення про визначення параметра стиснення Q для досягнення оптимальної робочої точки BPG-кодера для конкретних зображень. Однак положення ОРТ та її наявність залежать не тільки від складності зображення, але й від обраного кодера. Висновки. Наукова новизна отриманих результатів полягає в наступному: 1) розгляд моделей шуму та рівнів параметрів, характерних для медичних зображень, а саме: адитивного гаусівського шуму такої інтенсивності, що він приблизно відповідає ледь помітним відмінностям, та сигнально-залежного пуасонівського шуму; 2) Аналіз багатомасштабного індексу структурної подібності (MS-SSIM), який раніше не досліджувався в роботах зі стиснення зашумлених медичних зображень з втратами; 3) детальне дослідження кодерів AVIF та HEIF для визначення того, чи спостерігається для них оптимальна робоча точка (ОРТ) і за яких шумових умов; 4) використання набору даних, що складається з десяти медичних зображень різної візуальної складності, з узагальненими тенденціями, виявленими для різних структурних типів; 5) здатність багатьох метрик мати ОРТ для зображень помірної візуальної складності або зображень, в яких переважають однорідні ділянки; 6) для пуассонівського шуму дослідження підкреслює залежність Q в ОРТ від середньої інтенсивності зображення, яка може бути обґрунтовано розрахована для заданого зображення, призначеного для стиснення, на основі отриманих результатів; 7) Оскільки різні кодери використовують різні параметри, які керують стисненням, для різних кодерів потрібні різні підходи до визначення ОРТ; 8) Коефіцієнти стиснення для зображень, стиснутих в ОРТ, досить високі, що додатково обґрунтовує доцільність стиснення зображень в ОРТ або біля неї.
</description>
<pubDate>Wed, 01 Jan 2025 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://dspace.library.khai.edu/xmlui/handle/123456789/9117</guid>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</item>
<item>
<title>A model of ensuring LLM cybersecurity</title>
<link>http://dspace.library.khai.edu/xmlui/handle/123456789/9116</link>
<description>A model of ensuring LLM cybersecurity
Neretin, O.; Kharchenko, V.
The subject of study is a model for ensuring cybersecurity of Large Language Models (LLM). The goal of this study is to develop and analyze the components of the LLM cybersecurity model to improve its assessment accuracy and ensure the required security level. Tasks: the abstract structure of LLM systems should be suggested and analyzed; a common model of cybersecurity of LLM systems (LLMS) should be built; a cybersecurity model of LLM as a main component of LLMS should be developed; the elements of the developed cybersecurity model should be analyzed; potential case studies should be described and an example of risk criticality analysis for one of the threats of the LLM should be provided; the directions of future research should be substantiated on the identification, classification, criticality analysis, and collection of exploits to test the stability of LLM. The research results: the basic high-level architecture of LLMS, which consists of external sources, the LLM service, server functions, and storage environments, is developed; a common LLM cybersecurity model was built based on this architecture; the cybersecurity model was developed, which is an independent component of the overall cybersecurity model of LLMS and is based on a chain of the following elements: threat, vulnerability, attack, risks, and countermeasures; in addition, an analysis of the elements of the LLM cybersecurity model is conducted, and a sequence of countermeasures is proposed. Conclusions. This study determines that improving the cybersecurity of LLM is an important and urgent task, given the widespread use of these models in many areas of human life. The importance of developing an LLM cybersecurity model is that it is the baseline for all subsequent research. The practical significance of analyzing the model’s elements lies in using them to conduct experiments to simulate cyber attacks on LLM. The main contributions of this study are the LLM and LLMS cybersecurity models, the formalization of the results of these experiments, an assessment of the criticality level for cyber risks of the models, and the choice of countermeasures based on the coefficient of their effectiveness. In this case, ensuring an acceptable risk level for LLM is possible at a minimal cost. Areas for further research: definition and classification of exploits to test LLM security; methodology for collecting these exploits; analysis of the criticality of the damage they cause for various applications.; Предметом дослідження є модель забезпечення кібербезпеки великих мовних моделей (LLM). Метою цього дослідження є розробка та аналіз компонентів моделі кібербезпеки LLM з метою підвищення точності її оцінки та забезпечення необхідного рівня безпеки. Завдання: представити і проаналізувати абстрактну структуру систем LLM; побудувати загальну модель кібербезпеки систем LLM (LLMS); розробити модель кібербезпеки LLM як основного компонента LLMS; проаналізувати елементи розробленої моделі кібербезпеки; описати можливі приклади використання та навести приклад аналізу критичності ризиків для однієї з загроз LLM; обґрунтувати напрями майбутніх досліджень щодо визначення, класифікації, аналізу критичності та колекціонування експлойтів для перевірки стійкості LLM. Результати дослідження: розроблено базову високорівневу архітектуру LLMS, яка складається із зовнішніх джерел, сервісу LLM, серверних функцій та середовищ зберігання; на основі цієї архітектури побудовано загальну модель кібербезпеки LLM; зосереджуючись безпосередньо на LLM, розроблено її модель кібербезпеки, яка є незалежним компонентом загальної моделі кібербезпеки LLMS та базується на ланцюжку наступних елементів: загроза, вразливість, атака, ризики та контрзаходи; крім того, проведено аналіз елементів моделі кібербезпеки LLM та запропоновано послідовність вибору контрзаходів. Висновки. Це дослідження визначає, що покращення кібербезпеки LLM є важливим та актуальним завданням, враховуючи широке використання цих моделей у багатьох сферах людського життя. Важливість розробки моделі кібербезпеки LLM полягає в тому, що вона є базовою для всіх наступних досліджень. Практичне значення аналізу елементів моделі полягає у їх використанні для проведення експериментів з моделювання кібератак на LLM. Основним внеском даного дослідження є моделі кібербезпеки LLM та LLMS та формалізація результатів цих експериментів та оцінка рівня критичності для кібер ризиків моделей та вибір контрзаходів на основі коефіцієнта їх ефективності. У цьому випадку забезпечення прийнятного рівня ризику для LLM можливе за мінімальних витрат. Напрями подальших досліджень: визначення та класифікація експлойтів для перевірки безпеки LLM; методологія збору цих експлойтів; аналіз критичності завданої ними шкоди для різних застосувань.
</description>
<pubDate>Wed, 01 Jan 2025 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://dspace.library.khai.edu/xmlui/handle/123456789/9116</guid>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</item>
<item>
<title>Methodology of statistical synthesis and analysis methods for stochastic signal processing in multi-antenna radio direction finders</title>
<link>http://dspace.library.khai.edu/xmlui/handle/123456789/9115</link>
<description>Methodology of statistical synthesis and analysis methods for stochastic signal processing in multi-antenna radio direction finders
Tserne, E.; Holovynsky, Y.; Zhyla, O.
The subject of this study is the development of a statistical synthesis methodology and analysis methods for processing stochastic signals in multi-antenna radio direction finders. The aim of this study is to improve the accuracy, stability, and adaptability of these systems under changing operating conditions, especially for applications involving unmanned aerial vehicles. The objectives of the study are: 1) formulation of analytical models of signals and noise with specified statistical characteristics; 2) determination of the criteria for the maximum likeli-hood function for solving optimisation problems; 3) creation of a basis for estimating marginal errors of measuring the angular positions of radio sources emitting stochastic signals; 4) development of a structural diagram of a radio direction finding system based on the obtained algorithm; 5) simulation modelling of the direction finder. The methods for solving the tasks are statistical theories of radio engineering systems, simulation modelling and optimisation in the spectral domain to solve the problems of designing radio direction finders capable of processing stochastic signals. This approach allows for the integration of amplitude and phase measurements for multiple antennas, ensuring compatibility with UAV-specific constraints, such as size, weight, and aerodynamic characteristics. The following results were obtained: 1) theoretical foundations for optimising radio direction finders for stochastic signals, validated by simulation and analytical modelling; 2) algorithms and block diagrams for a prototype single-antenna non-scanning radio direction finder, demonstrating the proposed method-ology; 3) experimental verification confirming the feasibility of the proposed methods. This work provides a way for further development of multi-antenna direction-finding technologies, offering scalable solutions for use in UAVs and allowing accurate estimation of signal parameters under conditions of uncertainty. Future directions include the extension of the methodology to dual-antenna systems, hybrid configurations, and spatially distributed multi-antenna systems.; Предметом цього дослідження є розроблення методології статистичного синтезу та методів аналізу для обробки стохастичних сигналів у багатоантенних радіопеленгаторах. Мета роботи полягає в підвищення точності, стійкості та адаптивності цих систем в умовах експлуатації, що змінюються, особливо для додатків, по-в'язаних із безпілотними літальними апаратами (БПЛА). Завдання на вирішення яких спрямовано дослідження: 1) формулювання аналітичних моделей сигналів і шумів із заданими статистичними характеристиками; 2) визначення критеріїв функції максимальної правдоподібності для розв'язування задач оптимізації; 3) створення основи для оцінювання граничних помилок вимірювання кутового положення стохастичних джерел сигналів; 4) розроблення структурної схеми радіопеленгаційної системи на основі розробленого алгоритма; 5) імітаційне моделювання пеленгатора. Методами розв'язання поставлених задач є статистичні теорії радіо-технічних систем, імітаційне моделювання та оптимізація в спектральній області для розв'язання задач проєктування радіопеленгаторів, здатних обробляти стохастичні сигнали. Цей підхід дає змогу інтегрувати результати амплітудних і фазових вимірювань для кількох антен, забезпечуючи сумісність з обмеженнями, характер-ними для БПЛА, такими як розмір, вага й аеродинамічні характеристики. Було отримано такі результати: 1) теоретичні засади оптимізації радіопеленгаторів для стохастичних сигналів, підтверджені за допомогою імітаційного та аналітичного моделювання; 2) розроблено алгоритми та блок-схеми прототипу одноантенного нескануючого радіопеленгатора, що демонструє запропоновану методику; 3) експериментальна перевірка, що підтверджує здійсненність запропонованих методів. Дана робота відкриває шлях для подальшого розвитку технологій багатоантенної пеленгації, пропонуючи масштабовані рішення для застосування в БПЛА і даючи змогу точно оцінювати параметри сигналу в умовах невизначеності. Майбутні напрямки включають розширення методології на двоантенні системи, гібридні конфігурації та просторово розподілені багатоантенні системи.
</description>
<pubDate>Wed, 01 Jan 2025 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://dspace.library.khai.edu/xmlui/handle/123456789/9115</guid>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</item>
<item>
<title>Принципи взаємної інформованості при аналізі функційної та кібербезпеки інформаційно-керуючих систем на програмованих логічних контролерах</title>
<link>http://dspace.library.khai.edu/xmlui/handle/123456789/9075</link>
<description>Принципи взаємної інформованості при аналізі функційної та кібербезпеки інформаційно-керуючих систем на програмованих логічних контролерах
Івасюк, О.О.; Харченко, В.С.
Предметом вивчення статті є такі властивості інформаційно-керуючих систем (ІКС), як функційна безпека (ФБ) і кібербезпека (КБ). У роботі досліджуються ФБ і КБ ІКС, які побудовані на основі цифрових програмованих логічних контролерів (ПЛК) і реалізують важливі для безпеки функції. Метою є розробка елементів методології аналізу КБ з урахуванням результатів оцінювання ФБ ПЛК-систем (ІКС, що базуються на ПЛК) для оптимізації витрат на такий аналіз. Завдання: аналіз ПЛК-систем, як об'єкта оцінювання ФБ і КБ; формулювання і доказ ключових положень концепції Safety Informed Security (SfISc); обговорення прикладів і меж застосовності сформульованих тверджень. Отримані такі результати. Запропоновано принцип трьох еквівалентностей і побудована узагальнена структурна схема його представлення. Сформульовано та доказано дві базові теореми, які встановлюють зв'язок між рівнем кібербезпеки ПЛК, у разі наявності відомостей про рівень його функціональної безпечності. На основі вперше доведених теорем була побудована основна модель станів ПЛК з рівнем функціональної безпечності SIL-3 у разі одиничної апаратної відмови та/або кібератаки. Доповнено існуючу онтологічну модель SISMECA, яка базується на принципі Security Informed Safety (ScISf). Проаналізовано відомий кіберінцидент, який відбувся з ПЛК-системою, у якої був високий рівень функціональної безпеки. Був оцінений на основі запропонованої концепції один з найімовірніший сценаріїв здійснення кібератаки на ПЛК в «онлайн» режимі. Висновки. Вперше, запропонована концепція взаємної інформованості функційної та кібербезпеки ІКС на основі ПЛК - SfISc. Сформульовані у роботі теоретичні постулати надають можливості проводити оцінку кібербезпеки ПЛК на основі вже здійсненої оцінки його функційної безпечності. Принцип SfISc може бути використаний в таких практичних випадках: у процесі ліцензування нової або модернізованої функційно безпечної ІКС; при визначенні рівня відповідності наявних систем, важливих для функційної безпечності новим вимогам з кібербезпеки; при формуванні вимог до функційно безпечної ІКС.; The subject of this paper is the properties of instrumental and control systems (ICS) in terms of functional safety (FS) and cybersecurity (CS). This paper investigates the FS and CS of ICS, which are based on digital programmable logic controllers (PLC) and performing the safety related functions. The goal is to develop elements of the methodology for analyzing the design basis by considering the results of the evaluation of the FS of PLC systems (PLC-based ICS) to optimize the costs of such analysis. Objectives: to analyze PLC systems as an object of FS and CS assessment; to formulate and prove the key ideas of the Safety Informed Security (SfISc) concept; to discuss examples and limits of applicability of the formulated statements. The following results are obtained. The principle of the three equivalences is proposed and a generalized structural scheme for its representation is constructed. Two basic theorems are described and proved to establish a relationship between the level of cybersecurity of a PLC, in the presence of information about its functional safety. Based on the first-proven theorems, a basic model of PLC states with a functional safety level of SIL-3 is built in the case of a single hardware failure and/or cyberattack. The existing ontological model SISMECA, which is based on the principle of Security Informed Safety (ScISf), is supplemented. A well-known cyberattack involving a PLC system with high safety level is analyzed. Based on the proposed concept, one of the most likely scenarios of a cyberattack on a PLC in the “online” is evaluated. Conclusions. For the first time, the concept of mutual awareness of the function and cybersecurity of ICS based on PLC - SfISc - is proposed. The theoretical postulates described in this paper make it possible to assess the cybersecurity of a PLC based on previously performed safety assessments. The SfISc principle can be used in the following practical cases: in the process of licensing a new or modernized functional safety ICS; in determining the level of compliance of existing systems that are important for safety with new cybersecurity requirements; and in developing the requirements for a safety-related ICS.
</description>
<pubDate>Wed, 01 Jan 2025 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://dspace.library.khai.edu/xmlui/handle/123456789/9075</guid>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</item>
</channel>
</rss>
